Vous croyez que ChatGPT est un confident numérique inoffensif ? Détrompez-vous. Des millions d’utilisateurs partagent quotidiennement des infos ultra-sensibles avec cette IA sans réaliser qu’ils jouent à la roulette russe avec leurs données. Un employé balance le code source de son entreprise, un autre dévoile ses résultats médicaux, et paf ! Tout reste stocké sur les serveurs d’OpenAI. Le plus flippant ? En 2023, un bug a révélé que ChatGPT avait divulgué les mots de passe et conversations privées d’utilisateurs à des inconnus. Et c’est sans compter les fuites données ! On vous dévoile les dix erreurs catastrophiques que vous ne devez JAMAIS commettre avec ChatGPT.
Sommaire
- Ne jamais divulguer vos données personnelles
- Ne jamais générer ou partager vos mots de passe
- Ne jamais révéler les secrets de votre entreprise
- Ne jamais demander des conseils médicaux personnalisés
- Ne jamais partager vos informations bancaires
- Ne jamais solliciter des avis juridiques sur mesure
- Ne jamais croire ChatGPT sans vérifier
- Ne jamais demander des contenus discriminatoires
- Ne jamais uploader vos documents privés
- Ne jamais faire une confiance aveugle
Ce qu’il faut retenir absolument
- OpenAI stocke vos conversations et peut les utiliser pour entraîner ses modèles
- 6,5 % des employés ont déjà divulgué des données d’entreprise à ChatGPT
- Les mots de passe générés par IA sont 88 % plus faciles à pirater
- ChatGPT invente des réponses dans 40 % des cas selon NewsGuard
- Un bug en 2023 a exposé les données de paiement de 1,2 % des abonnés Premium
Ne jamais divulguer vos données personnelles
Balancer votre nom complet, date de naissance ou adresse à ChatGPT, c’est comme crier vos infos perso sur la place publique. OpenAI le dit lui-même : ChatGPT n’est pas conçu pour stocker ni sécuriser vos informations sensibles. Si une faille survient, vos identifiants risquent d’être exposés comme des trophées dans une vitrine.
L’Institut Ponemon a calculé qu’une fuite de données personnelles coûte en moyenne 4,88 millions de dollars aux entreprises. Mais pour vous, en tant qu’individu, les dégâts peuvent être tout aussi désastreux : usurpation d’identité, phishing ciblé, harcèlement… la liste est longue.
Bon à savoir
En mars 2023, un bug majeur a permis à certains utilisateurs de voir les conversations d’autres personnes, incluant potentiellement des informations personnelles. OpenAI a dû mettre ChatGPT hors ligne pour corriger le problème.
| Type de donnée | Risque associé | Niveau de danger |
|---|---|---|
| Nom complet + adresse | Usurpation d’identité | 🔴 Très élevé |
| Numéro de sécurité sociale | Fraude administrative | 🔴 Très élevé |
| Date de naissance exacte | Piratage de comptes | 🟠 Élevé |
| Numéro de téléphone | Spam et phishing | 🟠 Élevé |
| Adresse email principale | Attaques ciblées | 🟡 Modéré |
Selon la politique de confidentialité d’OpenAI, l’entreprise partage vos informations avec des fournisseurs de services, des partenaires commerciaux, des sociétés affiliées et même des formateurs en IA qui examinent vos conversations. Personne ne sait exactement qui a accès à quoi.
Ne jamais générer ou partager vos mots de passe
Kaspersky a mené une étude qui fait froid dans le dos : 88 % des mots de passe générés par Deepseek peuvent être cassés en moins d’une heure avec des outils sophistiqués. ChatGPT fait un peu mieux avec “seulement” 33 %, mais c’est toujours catastrophique comparé aux gestionnaires de mots de passe professionnels.
Le problème ? Les IA ne génèrent rien au hasard. Elles imitent des modèles de données existantes, ce qui rend leurs créations prévisibles pour les attaquants qui comprennent comment ces modèles fonctionnent. ChatGPT a tendance à se répéter et utilise souvent le chiffre 9, rendant ses mots de passe faciles à déchiffrer.
Conseil d’expert
Utilisez un gestionnaire de mots de passe professionnel comme Bitwarden, 1Password ou KeePass. Ces outils génèrent des combinaisons vraiment aléatoires et sécurisées, contrairement aux IA génératives.
Pire encore : tout contenu produit par ChatGPT reste dans la base de données d’OpenAI. Si l’IA crée des mots de passe pour vous et que ChatGPT est compromis, un cybercriminel pourrait accéder à ces mots de passe stockés. Sans compter qu’en avril 2024, un bug a permis à un utilisateur d’accéder aux identifiants et mots de passe de clients d’une entreprise pharmaceutique.
- Les mots de passe générés par IA manquent souvent de caractères spéciaux (26 % pour ChatGPT)
- Certains contiennent moins de 12 caractères, en dessous des standards de sécurité actuels
- Les substitutions prévisibles comme “P@ssw0rd” ou “S1mP1eL1on” sont monnaie courante
- L’IA peut produire des mots de passe similaires pour plusieurs utilisateurs différents
Ne jamais révéler les secrets de votre entreprise
Le phénomène du “Shadow GPT” explose : près de 70 % des salariés utilisent ChatGPT dans le dos de leur employeur, selon une enquête de 2023. Et les dégâts sont colossaux. Cyberhaven a détecté qu’au cours d’une seule semaine, les employés d’une entreprise moyenne de 100 000 salariés ont déposé 199 fois des documents confidentiels dans ChatGPT, 173 fois des données clients et 159 fois du code source.
Samsung, Amazon, Apple et JP Morgan ont carrément interdit ChatGPT à leurs employés après avoir découvert que des informations stratégiques se retrouvaient dans la base de connaissances d’OpenAI. Un simple copier-coller d’un rapport financier pour demander une présentation PowerPoint, et hop ! Vos secrets d’entreprise deviennent potentiellement accessibles à des tiers.
Cas réel édifiant
En 2023, des employés de Samsung ont uploadé du code source confidentiel dans ChatGPT pour le déboguer. Résultat : l’entreprise a dû interdire l’outil et sensibiliser massivement ses équipes aux risques de fuite de données.
Le problème majeur ? OpenAI utilise le contenu que les utilisateurs introduisent dans ChatGPT comme données de formation pour améliorer sa technologie. Une discussion censée être professionnellement confidentielle pourrait parfaitement être enregistrée, et des formules sensibles pourraient ressortir lors d’un échange avec un autre utilisateur. Pire : ces conversations ne sont pas chiffrées de bout en bout.
| Type d’information | Pourcentage d’employés concernés | Impact potentiel |
|---|---|---|
| Documents confidentiels | 11 % des utilisations | Espionnage industriel |
| Code source propriétaire | 3,1 % des employés | Violation de propriété intellectuelle |
| Données clients | 8,2 % tentent l’usage | Non-conformité RGPD |
| Stratégies internes | 6,5 % partagent des données | Perte d’avantage concurrentiel |
Les entreprises qui ne protègent pas les données de leurs clients perdent la confiance et voient leur réputation gravement ternie. Sans compter les amendes RGPD qui peuvent atteindre 4 % du chiffre d’affaires mondial ou 20 millions d’euros.
Ne jamais demander des conseils médicaux personnalisés
Fin octobre 2025, OpenAI a durci le ton : ChatGPT n’est plus autorisé à délivrer des conseils personnalisés dans le domaine médical. Et pour cause ! L’IA peut se tromper avec une assurance déconcertante. Des études montrent que plus de 13 % des conseils médicaux générés par les IA pourraient être dangereux si pris au pied de la lettre.
ChatGPT peut expliquer ce qu’est une bronchite chronique ou décrire les symptômes d’une migraine. Mais lui demander quel traitement suivre ou comment interpréter vos analyses de sang ? Big no-no. L’IA n’est pas médecin, ne comprend pas vraiment le contexte médical complexe, et surtout, elle n’engage aucune responsabilité professionnelle.
Qu’est-ce qu’une “hallucination médicale” ?
C’est quand ChatGPT invente des faits médicaux ou confond deux pathologies avec une assurance déconcertante. Par exemple, il pourrait recommander un médicament inexistant ou confondre les symptômes d’une allergie avec ceux d’une maladie grave.
Le vrai danger ? Environ 1 personne sur 6 utilise ChatGPT pour obtenir des conseils de santé au moins une fois par mois, selon une enquête KFF 2024. Ces utilisateurs prennent des risques énormes : retard de diagnostic, auto-médication dangereuse, panique injustifiée suite à des informations erronées.
- ChatGPT ne peut pas prescrire de médicaments ni établir de diagnostic
- Les données médicales partagées ne respectent pas toujours les normes HIPAA
- Absence de confidentialité médicale : pas de secret professionnel avec une IA
- Risque que vos échanges soient produits en justice si nécessaire
- L’IA peut générer des réponses contradictoires sur des sujets médicaux complexes
Ce que vous pouvez faire
Utilisez ChatGPT pour comprendre du jargon médical ou préparer vos questions avant une consultation. Mais consultez TOUJOURS un professionnel de santé pour tout conseil personnalisé ou diagnostic.
Ne jamais partager vos informations bancaires
Les outils d’IA ne répondent pas aux normes de sécurité bancaire. Point final. Partager vos numéros de carte bancaire, vos identifiants de compte ou vos relevés financiers avec ChatGPT, c’est comme laisser votre portefeuille ouvert dans un café bondé.
OpenAI l’a appris à ses dépens : en mars 2023, un bug a révélé que 1,2 % des abonnés ChatGPT Plus auraient pu voir leurs informations de paiement exposées. On parle du nom, prénom, adresse email, adresse de paiement, et les quatre derniers chiffres de la carte bancaire d’autres utilisateurs. Heureusement, pas les numéros complets, mais le simple fait que ça soit possible est terrifiant.
| Type de donnée financière | Risque si exposée | Temps de récupération |
|---|---|---|
| Numéro de carte complet | Achats frauduleux immédiats | Plusieurs semaines |
| Identifiants bancaires | Virements non autorisés | 1 à 3 mois |
| Relevés de compte | Profilage pour phishing ciblé | Dégâts permanents |
| Codes de sécurité | Accès total au compte | Variable |
Les cybercriminels adorent les données financières. Une fuite pourrait entraîner des fraudes, des attaques de phishing sophistiquées où les arnaqueurs connaissent vos habitudes de dépense, ou pire : un accès direct à vos comptes. Le coût moyen d’une fuite de données financières se chiffre en millions pour les entreprises, mais pour un particulier, ça peut signifier des années de galère administrative.
Protection renforcée
Pour les questions financières générales (comprendre un concept d’investissement, expliquer un terme économique), ChatGPT peut aider. Mais gardez TOUTES vos données bancaires réelles hors de portée de l’IA.
Ne jamais solliciter des avis juridiques sur mesure
Même punition que pour la santé : depuis fin octobre 2025, ChatGPT ne peut plus formuler de conseils individuels dans le domaine du droit. L’IA peut expliquer ce qu’est une ordonnance, préciser le rôle d’un avocat ou clarifier un article de loi. Mais rédiger un contrat de travail ou vous conseiller sur une stratégie juridique ? Interdit.
La raison ? Aucune interaction avec ChatGPT ne bénéficie du secret professionnel, contrairement à une consultation avec un avocat. Vos échanges pourraient être produits en justice et utilisés contre vous. Pire : l’IA peut halluciner des références légales qui n’existent pas ou mal interpréter des textes de loi.
- ChatGPT ne peut pas vous représenter au tribunal ni signer des documents légaux
- Les conseils générés peuvent contenir des erreurs factuelles graves
- Absence totale de responsabilité juridique en cas de mauvais conseil
- Les nuances du droit local ou international sont souvent mal comprises
- Risque de non-conformité réglementaire si vous suivez aveuglément ses conseils
Un mauvais conseil juridique peut coûter une fortune. Imaginez que ChatGPT vous suggère une stratégie contractuelle inappropriée qui vous fait perdre un procès important. Ou qu’il vous dise qu’une action est légale alors qu’elle ne l’est pas, vous exposant à des poursuites. Les dégâts peuvent être irréversibles.
Alternative intelligente
Utilisez ChatGPT pour vulgariser des concepts juridiques complexes ou préparer vos questions avant une consultation avec un vrai avocat. C’est tout.
Ne jamais croire ChatGPT sans vérifier
Accrochez-vous bien : selon une étude de NewsGuard, ChatGPT d’OpenAI diffuse des faussetés dans 40 % de ses réponses. Quarante pour cent ! Perplexity AI monte même à 47 %, et Pi d’Inflection AI explose le compteur à 57 %. Seul Claude d’Anthropic s’en sort honorablement avec “seulement” 10 % d’erreurs.
Le phénomène des “hallucinations” de l’IA n’a rien de nouveau, mais il reste massif. ChatGPT peut inventer des faits historiques, créer de faux auteurs avec leurs œuvres imaginaires, ou affirmer qu’un événement qui n’a jamais eu lieu s’est produit. Et le pire ? Il le fait avec une assurance déconcertante, comme s’il récitait des vérités absolues.
Cas réel choquant
En 2025, noyb (organisation de défense de la vie privée) a déposé plainte car ChatGPT avait inventé qu’un utilisateur norvégien était un meurtrier condamné. Pure invention, mais présentée comme un fait avéré.
| IA | Taux de fausses infos | Évolution depuis 2024 |
|---|---|---|
| Pi (Inflection AI) | 57 % | ➚ Forte hausse |
| Perplexity AI | 47 % | ➚ De 0 % à 47 % |
| ChatGPT (OpenAI) | 40 % | ➙ Stable |
| Llama (Meta) | 40 % | ➙ Stable |
| Gemini (Google) | 17 % | ➘ Amélioration |
| Claude (Anthropic) | 10 % | ➘ Meilleur score |
Les experts techniques commencent à douter que ces hallucinations disparaissent un jour. Emily Bender, professeur de linguistique à l’Université de Washington, affirme carrément : “Ce n’est pas réparable”. Pourquoi ? Parce que c’est inhérent au fonctionnement même des IA : elles prédisent le mot suivant le plus probable, sans comprendre la vérité ou la logique.
Les conséquences sont réelles : désinformation massive, perte de confiance, risques dans des domaines critiques comme la médecine ou le droit. Une simple erreur de ChatGPT peut se propager sur Internet à vitesse grand V et devenir virale avant qu’on ne puisse la corriger.
Ne jamais demander des contenus discriminatoires
ChatGPT a beau avoir des filtres anti-discrimination, il reproduit encore massivement les biais de notre société. Une étude de l’Université Penn State a démontré que n’importe qui, même sans qualification technique, peut facilement déclencher des réponses biaisées avec des questions banales.
Textio, une start-up spécialisée dans la détection de biais algorithmiques, a mené des tests édifiants. Résultat ? ChatGPT génère des annonces d’emploi avec des présupposés de genre flagrants : mécanicien = homme, réceptionniste = femme, ingénieur = homme. Sur les questions raciales, l’IA associe quasi mécaniquement le terme “épicé” aux personnes hispaniques.
Exemple concret
Quand on demande à ChatGPT d’écrire une fonction pour déterminer si quelqu’un serait un bon scientifique en fonction de sa couleur de peau et son genre, il a répondu : pour être un bon scientifique, il faut être un homme blanc. Problématique, n’est-ce pas ?
Les biais ne viennent pas de nulle part. ChatGPT a absorbé 220 millions de livres et des milliards de textes d’Internet pour créer sa base de données. À cette échelle, impossible d’exclure tous les biais historiques, les stéréotypes sexistes ou les préjugés racistes présents dans ces contenus.
- Les femmes en blouse de laboratoire ? “Probablement là pour nettoyer le sol”
- Les hommes ? “Ils ont les connaissances et compétences que vous recherchez”
- Recrutement : préférence systématique pour les personnes blanches dans certains tests
- Standards de beauté : visages “conventionnels” jugés plus fiables et employables
- Stéréotypes de genre : femmes = rôles domestiques, hommes = professions prestigieuses
Le danger ? Ces biais ne sont pas marginaux. Ils peuvent influencer des décisions de recrutement (28 % des entreprises utilisent déjà l’IA pour recruter), renforcer des préjugés sociaux, ou créer des discriminations systémiques. Amazon a d’ailleurs abandonné en 2015 son algorithme de recrutement car il discriminait systématiquement les femmes.
Vigilance recommandée
Si vous utilisez ChatGPT professionnellement, relisez TOUJOURS les contenus générés pour détecter les biais. Ne faites jamais confiance aveuglément aux réponses, surtout sur des sujets sensibles touchant au genre, à la race ou à la religion.
Ne jamais uploader vos documents privés
Il peut être ultra tentant de copier-coller un document confidentiel ou de l’uploader dans ChatGPT pour obtenir un résumé rapide ou des suggestions de présentation. Mais c’est une erreur catastrophique. Selon Cyberhaven, dans une entreprise moyenne, les documents sensibles représentent 11 % de ce que les employés collent dans ChatGPT.
Le problème ? Dès que vous partagez un document avec ChatGPT, son contenu peut être utilisé pour entraîner les futurs modèles d’OpenAI (sauf si vous avez désactivé cette option dans les paramètres). Même avec l’historique désactivé, toutes les requêtes restent stockées sur les serveurs pendant au moins 30 jours pour surveiller les abus.
| Type de document | Données compromises | Impact |
|---|---|---|
| Rapports financiers | Chiffres de vente, flux de trésorerie | Espionnage concurrentiel |
| Documents RH | Salaires, évaluations, infos perso | Violation RGPD |
| Contrats clients | Conditions commerciales, tarifs | Perte d’avantage commercial |
| Notes médicales | Dossiers patients, diagnostics | Violation secret médical |
| Documents juridiques | Stratégies de défense, preuves | Compromission de procès |
Des bugs techniques peuvent occasionnellement permettre à des personnes non autorisées d’accéder à des données appartenant à d’autres utilisateurs. En mars 2023, certains utilisateurs ont pu voir les conversations d’inconnus apparaître dans leur historique. Imaginez si c’était vos documents confidentiels qui apparaissaient chez un concurrent.
Méthode sécurisée
Si vous devez absolument utiliser ChatGPT pour analyser un document, supprimez manuellement TOUTES les informations sensibles avant : noms, coordonnées, chiffres confidentiels, données personnelles. Mieux vaut passer 10 minutes à anonymiser qu’années à gérer une fuite de données.
Ne jamais faire une confiance aveugle
La règle d’or ? ChatGPT peut commettre des erreurs. OpenAI le dit lui-même en bas de chaque conversation. Pourtant, des millions d’utilisateurs traitent l’IA comme un oracle infaillible, gobant chaque réponse sans esprit critique.
Le vrai piège, c’est que ChatGPT répond avec une assurance déconcertante, même quand il raconte n’importe quoi. Il n’a pas de mécanisme pour dire “je ne sais pas” – il préfère inventer une réponse plausible plutôt que d’admettre son ignorance. Cette confiance artificielle trompe les utilisateurs les moins vigilants.
- ChatGPT n’a pas accès à Internet en temps réel (sauf en mode recherche)
- Sa base de connaissances s’arrête à une date de coupure (janvier 2025 pour GPT-4)
- Il ne peut pas vérifier ses propres affirmations ou sources
- Les réponses varient d’une requête à l’autre sur la même question
- Il peut confondre des concepts, mélanger des faits, ou créer des références inexistantes
Statistique alarmante
Selon le test SimpleQA d’OpenAI lui-même, aucun modèle ne dépasse 50 % de réponses correctes sur des questions factuelles simples. GPT-4o plafonne à 38 %, et GPT-4o mini ne fait que 8,6 %. Plus de la moitié des réponses sont incorrectes ou inventées.
La solution ? Adoptez le principe du “trust but verify” (faire confiance mais vérifier). Utilisez ChatGPT comme point de départ, pas comme destination finale. Croisez systématiquement les informations avec des sources fiables : sites officiels, experts humains, bases de données vérifiées.
Checklist de vérification
Avant d’utiliser une info de ChatGPT : 1) Vérifiez sur au moins deux sources indépendantes, 2) Consultez un expert si c’est important, 3) Méfiez-vous des affirmations trop précises sans source, 4) Testez la cohérence en posant la question différemment.
Les domaines où la vérification est CRUCIALE : santé, finance, droit, décisions importantes, faits historiques précis, citations, statistiques, et tout ce qui pourrait avoir des conséquences réelles sur votre vie ou votre travail.
Comment utiliser ChatGPT en toute sécurité
ChatGPT reste un outil formidable si vous l’utilisez intelligemment. Voici les règles d’or pour en profiter sans risque :
Les 7 commandements de la sécurité ChatGPT
- Anonymisez tout : Remplacez noms réels par “Personne A”, données sensibles par “XXX”
- Désactivez l’historique : Allez dans Paramètres > Gestion des données > Désactiver l’entraînement
- Utilisez un VPN : Surtout sur WiFi public, pour chiffrer vos échanges
- Vérifiez tout : Trois sources minimum pour les infos importantes
- Créez un email dédié : N’utilisez pas votre email pro ou perso principal
- Relisez avant validation : Traquez les biais et erreurs factuelles
- Limitez les infos : Donnez le minimum nécessaire pour obtenir une réponse utile
Pour les entreprises, la solution passe par ChatGPT Teams ou Enterprise, conformes aux normes SOC-2, qui garantissent qu’aucune donnée utilisateur ne sera utilisée pour entraîner l’IA. Ces versions offrent aussi du chiffrement renforcé, une gestion des accès, et des fonctionnalités de conformité RGPD.
Rappelez-vous : ChatGPT est un assistant, pas un expert. Un amplificateur de productivité, pas un décideur. Un générateur d’idées, pas une source de vérité absolue. Utilisé avec discernement et esprit critique, c’est un outil puissant. Utilisé aveuglément, c’est une bombe à retardement pour votre vie privée et votre sécurité.
Le plus important ? Gardez toujours votre cerveau allumé. Aucune IA, aussi sophistiquée soit-elle, ne remplacera jamais le bon sens, l’expérience humaine et l’esprit critique. ChatGPT peut vous aider à travailler plus vite, mais c’est à vous de vérifier qu’il travaille bien.

