Voici ce qu'il ne faut jamais dire à ChatGPT (ni à aucune autre IA)

Voici ce qu'il ne faut jamais dire à ChatGPT (ni à aucune autre IA)

Vous utilisez ChatGPT ? Attention à ce que vous lui dites, car certaines informations que vous lui confiez peuvent se retourner contre vous. Voici tout ce qu'il ne faut jamais révéler aux intelligences artificielles.

ChatGPT a progressivement fait son nid dans notre quotidien, au point que nous l'utilisons sans nous en rendre compte. Que ce soit pour obtenir de l'aide sur un devoir, chercher des informations, demander un avis médical, organiser une soirée ou même parler de nos états d'âme ou apprendre à séduire, le chatbot est devenu un outil incontournable. Mais toute cette aide ne vient qu'au prix de nombreuses données que nous livrons à OpenAI sans la moindre résistance.

Parce que oui, l'IA et la confidentialité, c'est une relation plus que compliquée. Et nous avons beau le savoir, nous avons rarement conscience à quel point ce sont des aspirateurs à données. Et si ChatGPT est loin d'être le pire chatbot en la matière – la fonction de "mémoire avancée", qui lui permet de puiser dans des conversations anciennes afin de se souvenir des préférences de l'utilisateur.

Alors, cela peut sembler logique pour certains, mais il ne faut surtout pas confier ses identifiants et mots de e à ChatGPT, car il n'est pas conçu pour gérer de façon sécurisée ce type d'informations. Idem pour les informations bancaires, comme les cartes de crédit, les IBAN et autres codes de sécurité, qui peuvent facilement apparaître dans un e-mail de la banque que l'on ferait relire au chatbot. Il est déjà arrivé que des données personnelles saisies par un utilisateur réapparaissent accidentellement dans la réponse donnée à un autre, ce serait fâcheux si c'était le cas avec celles-ci.

Beaucoup peuvent être tentés de demander à ChatGPT de jouer au médecin ou d'interpréter des résultats d'analyses, mais mieux vaut y réfléchir à deux fois avant de confier ses données médicales ! Le chatbot n'est pas soumis aux mêmes obligations de secret professionnel que les médecins ou les établissements de santé. De telles informations pourraient être utilisées pour du ciblage publicitaire ou, dans le pire des cas, des discriminations.

Mieux vaut également éviter de divulguer trop d'informations personnelles, comme son nom, son adresse et son numéro de téléphone. Ces éléments peuvent sembler anodins mais, cumulés, ils peuvent permettre d'identifier formellement un utilisateur, en créant une "empreinte numérique" exploitable. Cela vaut bien évidemment pour le numéro de sécurité sociale et d'autres informations que l'on trouve sur une carte d'identité ou un eport.

Si certains n'hésitent pas à faire du chatbot leur confident, mieux vaut ne pas lui révéler trop de détails intimes et personnels à cause des risques de divulgation accidentelle. En effet, des opinions politiques ou religieuses, des problèmes relationnels ou de détresse émotionnelle peuvent être révélés si les journaux de conversation sont piratés ou mal gérés.

Il faut également faire attention avec les éléments confidentiels liés à son travail ou à son entreprise. Utiliser ChatGPT pour des tâches professionnelles est tentant, mais mieux vaut se garder d'y saisir des données stratégiques, des secrets commerciaux ou des informations internes confidentielles, qui pourraient être enregistrés et potentiellement utilisés pour entraîner de futurs modèles. Samsung a malheureusement connu un incident de ce type, lorsque son code source avait fuité après une simple interaction avec l'IA.

Bien évidemment, ces précautions ne s'appliquent pas qu'à ChatGPT, mais aussi à toutes les autres intelligences artificielles conversationnelles populaires, telles que Google Gemini, Microsoft Copilot, Claude, Meta AI, Perplexity ou encore Deepseek. Attention à ne jamais oublier leur vraie nature !