ChatGPT n’est pas privé par défaut : OpenAI collecte vos prompts, votre adresse IP, votre localisation et vos données de session, et les utilise pour entraîner ses futurs modèles sauf si vous désactivez manuellement cette option. En janvier 2026, l’autorité italienne de protection des données a infligé une amende de 15 millions d’euros à OpenAI pour traitement illégal de données personnelles. Cette décision cristallise un malaise croissant : 300 millions d’utilisateurs actifs hebdomadaires confient leurs pensées, projets et données sensibles à un chatbot dont les pratiques de confidentialité restent opaques pour la majorité.

Points clés

  • Données collectées : prompts, réponses, IP, navigateur, localisation, durée de session, données de compte
  • Entraînement : par défaut, vos conversations servent à entraîner les modèles futurs (comptes gratuits et Pro)
  • Opt-out : Settings → Data Controls → désactiver « Improve the model for everyone »
  • Amende RGPD : 15 millions € infligés à OpenAI par l’autorité italienne (janvier 2026)
  • Solution entreprise : ChatGPT Enterprise/Team ne réutilise pas les données par défaut
  • Protection complémentaire : un VPN masque votre IP mais ne protège pas le contenu de vos prompts

Que sait exactement ChatGPT sur vous ?

Quand vous ouvrez une session ChatGPT, OpenAI enregistre bien plus que vos questions. Selon la politique de confidentialité mise à jour en mars 2026, l’entreprise collecte trois catégories de données. Les données de compte d’abord : nom, adresse email, numéro de téléphone et moyen de paiement. Les données d’utilisation ensuite : chaque prompt envoyé, chaque réponse générée, les fichiers uploadés, les images créées et l’historique complet des conversations. Les données techniques enfin : adresse IP, type de navigateur, système d’exploitation, localisation géographique approximative et durée de chaque session.

Ce qui surprend, c’est la durée de rétention. OpenAI conserve les données d’utilisation pendant 30 jours minimum pour la surveillance des abus, même si vous supprimez votre historique. Pour les comptes gratuits et Pro, les conversations servent par défaut à l’amélioration des modèles futurs — concrètement, un extrait de votre prompt pourrait théoriquement réapparaître dans la réponse d’un autre utilisateur. Le rapport de l’ESET publié en mars 2026 estime que 62 % des entreprises françaises utilisent ChatGPT sans avoir configuré les paramètres de confidentialité.

Comment OpenAI utilise-t-elle vos prompts pour l’entraînement ?

Le mécanisme est simple mais rarement compris. OpenAI a entraîné GPT-4 et GPT-5 sur 300 milliards de mots collectés sur Internet, auxquels s’ajoutent les interactions des utilisateurs avec ChatGPT. Quand vous envoyez un prompt, il est analysé, indexé et potentiellement intégré dans les jeux de données d’entraînement futurs. Cela ne signifie pas que votre texte sera reproduit mot pour mot — les données sont agrégées et anonymisées — mais le risque de mémorisation existe, comme l’ont démontré plusieurs études académiques depuis 2024.

La distinction par type de compte est cruciale. Les comptes gratuits et ChatGPT Plus/Pro alimentent l’entraînement par défaut. Les comptes ChatGPT Team, Enterprise et API n’alimentent jamais l’entraînement — c’est la garantie contractuelle d’OpenAI, formalisée dans le Data Processing Addendum (DPA). Pour un professionnel qui manipule des données client, cette différence justifie à elle seule le passage à un plan Team (25 $/mois par utilisateur).

Il existe un opt-out pour les comptes individuels : dans Settings → Data Controls, désactivez « Improve the model for everyone ». Vos futures conversations ne seront plus utilisées pour l’entraînement. Attention : si vous donnez un feedback (pouce en l’air/bas), la conversation associée peut quand même être utilisée, même avec l’opt-out activé. La fonctionnalité « Temporary Chat » va plus loin : les conversations ne sont ni sauvegardées, ni utilisées, ni visibles dans l’historique.

Pourquoi OpenAI a-t-elle été condamnée à 15 millions d’euros ?

Le Garante per la protezione dei dati personali (l’équivalent italien de la CNIL) a rendu sa décision en janvier 2026 après deux ans d’enquête. Les griefs sont multiples : absence de base légale valide pour le traitement des données personnelles à des fins d’entraînement (violation de l’article 6 du RGPD), défaut d’information des utilisateurs sur la collecte et l’utilisation de leurs données (violation de l’article 13), et absence de mécanisme efficace de vérification d’âge pour les mineurs de moins de 13 ans.

Cette amende n’est pas un cas isolé. La CNIL française a ouvert sa propre enquête, et le Comité européen de la protection des données (EDPB) a publié en décembre 2025 un rapport sur le traitement des données par les modèles d’IA qui pourrait servir de cadre pour d’autres sanctions. Le message aux utilisateurs est clair : les autorités européennes considèrent que ChatGPT présente des risques structurels pour la vie privée qui dépassent les simples paramétrages utilisateur. Pour comprendre le cadre réglementaire complet, consultez notre analyse de l’AI Act européen.

Quels sont les risques concrets pour un utilisateur français ?

Les risques se répartissent en trois niveaux. Le risque individuel concerne la fuite de données personnelles : si vous saisissez votre adresse, vos coordonnées bancaires ou des informations médicales dans ChatGPT, ces données transitent par les serveurs d’OpenAI aux États-Unis. Même avec le DPA européen, le transfert transatlantique de données reste une zone grise juridique depuis l’invalidation du Privacy Shield.

Le risque professionnel est le plus sous-estimé. Un avocat qui uploade un contrat confidentiel, un médecin qui décrit les symptômes d’un patient, un développeur qui colle du code propriétaire — chacun expose des données sensibles protégées par le secret professionnel. Samsung a interdit ChatGPT après qu’un ingénieur a accidentellement uploadé du code source confidentiel en 2023. En 2026, la CNIL recommande formellement aux entreprises d’utiliser uniquement ChatGPT Enterprise ou API avec DPA pour tout traitement de données professionnelles.

Le risque systémique est le plus insidieux. OpenAI agrège les données de 300 millions d’utilisateurs hebdomadaires. Cette masse d’information permet un profilage comportemental à une échelle inédite : centres d’intérêt, opinions politiques, préoccupations de santé, projets professionnels — tout est déduit des prompts. Même anonymisées, ces données agrégées présentent des risques de réidentification, comme l’ont montré les travaux du MIT sur la désanonymisation des jeux de données massifs.

Comment protéger sa vie privée sur ChatGPT en 2026 ?

La protection passe par une approche à plusieurs couches. Couche 1 : paramétrer ChatGPT. Désactivez l’entraînement (Settings → Data Controls), utilisez le mode Temporary Chat pour les requêtes sensibles, et ne connectez pas votre compte Google ou Microsoft à ChatGPT. Supprimez régulièrement votre historique de conversations.

Couche 2 : protéger la connexion avec un VPN. Un VPN comme NordVPN masque votre adresse IP réelle et chiffre le trafic entre votre appareil et les serveurs d’OpenAI. Votre fournisseur d’accès internet ne peut plus voir que vous utilisez ChatGPT, et OpenAI reçoit une IP anonymisée partagée avec des milliers d’utilisateurs. Ce n’est pas un anonymat total — votre compte reste identifié — mais c’est une protection significative contre le profilage géographique. Pour choisir le VPN adapté, consultez notre comparatif des meilleurs VPN pour l’IA en 2026.

Couche 3 : adopter une hygiène de prompt. C’est la règle la plus importante et la plus souvent ignorée. Ne saisissez jamais de données personnelles identifiantes (noms complets, adresses, numéros de téléphone), de données professionnelles confidentielles (code source, contrats, données client), ou de données médicales et financières. Traitez ChatGPT comme un espace public : ne dites rien que vous ne publieriez pas sur un forum ouvert.

Couche 4 : pour les entreprises. Migrez vers ChatGPT Enterprise ou utilisez l’API avec un DPA signé. Formez vos collaborateurs aux bonnes pratiques. Mettez en place une politique interne d’utilisation de l’IA qui précise les catégories de données interdites. La solution de suppression de données personnelles NordProtect peut compléter cette stratégie en surveillant les fuites de vos données sur le dark web.

👉 Protéger ma connexion avec NordVPN — 30 jours satisfait ou remboursé

Quelle est la position des autres IA sur la vie privée ?

Le paysage varie considérablement d’un fournisseur à l’autre. Claude (Anthropic) ne réutilise pas les conversations pour l’entraînement par défaut, quelle que soit la formule. C’est la politique la plus respectueuse du marché pour les comptes individuels. Gemini (Google) utilise les conversations pour améliorer ses modèles sauf opt-out explicite, avec une politique de rétention de 18 mois. Mistral AI (Le Chat) offre un hébergement 100 % européen mais ses pratiques d’entraînement restent moins documentées. Copilot (Microsoft) distingue les comptes personnels (entraînement possible) des comptes professionnels Microsoft 365 (pas d’entraînement).

Le dénominateur commun : aucun fournisseur d’IA ne garantit un anonymat total. Même les plus respectueux (Claude, Mistral) conservent des logs techniques pendant plusieurs semaines. Un VPN reste la seule solution pour dissocier votre identité réseau de vos interactions avec ces services.

FAQ

ChatGPT peut-il divulguer mes informations personnelles à d’autres utilisateurs ?

Le risque existe mais reste faible. Les modèles de langage peuvent théoriquement mémoriser des fragments de données d’entraînement et les restituer dans certaines conditions. OpenAI a implémenté des gardes-fous pour limiter ce phénomène, mais des chercheurs de Google DeepMind ont démontré en 2024 qu’il était possible d’extraire des données mémorisées avec des techniques de prompt spécifiques. Raison de plus pour ne jamais saisir d’informations sensibles.

Supprimer mon historique ChatGPT efface-t-il vraiment mes données ?

Partiellement. La suppression de l’historique retire les conversations de votre interface, mais OpenAI conserve les données pendant 30 jours pour la surveillance des abus. Si vos conversations ont déjà été intégrées dans un jeu de données d’entraînement avant la suppression, elles y restent de façon anonymisée. Le Zero Data Retention (ZDR), qui supprime immédiatement toute trace, n’est disponible que via les contrats Enterprise.

Un VPN suffit-il à protéger ma vie privée sur ChatGPT ?

Non, mais c’est une couche de protection essentielle. Un VPN masque votre IP et chiffre votre connexion, ce qui empêche votre FAI de savoir que vous utilisez ChatGPT et empêche OpenAI de vous géolocaliser précisément. En revanche, le contenu de vos prompts est toujours visible par OpenAI une fois déchiffré par leurs serveurs. La protection complète nécessite VPN + paramétrage de confidentialité + hygiène de prompt.

Mon employeur peut-il voir ce que je tape dans ChatGPT ?

Sur un réseau d’entreprise, oui. Si vous utilisez un ordinateur professionnel connecté au réseau de l’entreprise, le service informatique peut voir le trafic vers les serveurs d’OpenAI. Avec un proxy d’entreprise ou un logiciel de surveillance, le contenu de vos requêtes peut être intercepté. Un VPN personnel résout ce problème en chiffrant le trafic avant qu’il n’atteigne le réseau de l’entreprise — mais vérifiez d’abord la politique informatique de votre employeur, car l’utilisation d’un VPN personnel peut être interdite sur le réseau professionnel.

Ce qu’il faut retenir

ChatGPT est un outil puissant, mais il n’est pas un espace privé. OpenAI collecte massivement les données de ses utilisateurs, les utilise pour l’entraînement par défaut, et a déjà été sanctionnée pour ses pratiques. L’amende de 15 millions d’euros n’est que le début : d’autres procédures sont en cours dans toute l’Europe.

La bonne approche en 2026 combine quatre éléments : désactiver l’entraînement dans les paramètres, utiliser un VPN fiable pour protéger la connexion, adopter une hygiène de prompt stricte, et privilégier les offres Enterprise pour un usage professionnel. La vie privée à l’ère de l’IA n’est pas un acquis — c’est un effort quotidien.

👉 Découvrir NordVPN — Chiffrez vos échanges avec l’IA


Cet article contient des liens d’affiliation. Si vous effectuez un achat via ces liens, nous percevons une commission sans surcoût pour vous. Cela nous aide à financer notre rédaction indépendante.