
OpenAI avait discrètement supprimé environ 50 000 conversations partagées du moteur de recherche Google. Une manœuvre censée corriger la fuite de données révélée quelques jours plus tôt. Mais c’était sans compter sur l’existence d’Archive.org, cette gigantesque bibliothèque numérique qui conserve des versions historiques de pages web — y compris celles des conversations ChatGPT.
Le chercheur belge Nicolas Deleur, en collaboration avec Digital Digging, a révélé que plus de 110 000 conversations partagées sont déjà enregistrées dans la Wayback Machine. Ces conversations ne sont pas de simples extraits : elles sont complètes, lisibles, et parfois profondément choquantes.
Confessions archivées : révélations accablantes
Parmi les conversations retrouvées, plusieurs soulèvent des questions éthiques et juridiques majeures :
Une stratégie d’expropriation en Amazonie
Un avocat italien d’un grand groupe énergétique y décrit un plan visant à déplacer une communauté indigène amazonienne pour construire un barrage. L’échange révèle une volonté cynique d’exploiter l’ignorance économique des populations locales afin d’obtenir leurs terres au moindre coût.
Dénonciation politique en régime autoritaire
Un utilisateur basé dans un pays arabe utilise ChatGPT pour critiquer violemment son président. Le chatbot produit une critique structurée, évoquant répression politique, détentions arbitraires et usage de la force militaire. Le contenu, bien que partagé anonymement, contient assez de détails pour remonter à son auteur.
Fraude académique assistée par IA
Un étudiant iranien confie à ChatGPT l’intégralité de la rédaction de son mémoire de Master : résumé, analyse SPSS, conclusion. Il se vante ensuite d’avoir obtenu sa note et de préparer une autre tricherie pour un professeur différent. Le tout, désormais gravé dans les archives du web.
Pourquoi c’est (encore) plus inquiétant
Contrairement à Google, Archive.org ne permet pas aux éditeurs de contrôler ce qui est conservé. Même si un lien partagé est supprimé ou désindexé, s’il a été capturé par la Wayback Machine, il devient virtuellement indélébile. Le supprimer exigerait une procédure juridique, donc une reconnaissance publique par l’auteur – chose peu probable.
Et surtout, rien n’a changé du côté d’OpenAI concernant la sécurité des partages. L’option de “partage public” peut toujours être activée sans que les utilisateurs réalisent la portée de leur action.
Une vulnérabilité systémique, pas un accident
Selon Deleur, cette exposition massive n’est pas une série de cas isolés. Les modèles sont récurrents, la fuite de données est structurée. En croisant les schémas d’URL et les archives, il a pu reconstituer des milliers de conversations sensibles sans piratage ni contournement technique.
La majorité des utilisateurs, pensant leurs échanges privés, continuent de partager des liens vulnérables. Une fois rendus publics, ces dialogues peuvent être stockés en quelques secondes par des services comme Archive.org — sans retour possible.
Ce que cela signifie pour l’avenir
Cette affaire dépasse la simple erreur technique. Elle illustre un problème profond de gouvernance des données dans l’univers de l’IA générative. La promesse de confidentialité n’est pas garantie par la technologie seule, mais repose sur la compréhension et la vigilance des utilisateurs — deux éléments manifestement absents dans ce cas.
Alors que l’on continue à utiliser ChatGPT pour se confier, s’informer ou tricher, chaque clic sur “Partager” devient une prise de risque. Car si Google peut être contourné, la mémoire d’Internet, elle, ne pardonne pas.