Les grands modèles de langage (LLM) exécutant des chatbots IA sont probablement parmi les plus grands référentiels d’informations sur Internet. Ces informations peuvent être inoffensives ou très sensibles. OpenAI, la société derrière ChatGPT, est désormais confrontée au drame supplémentaire des fuites de conversations qui déversent des informations sensibles.

Il est important de savoir que cette histoire est encore en développement. Il est donc très possible que de nouveaux détails surgissent et changent complètement la trajectoire de ce drame récent. Pour l’instant, l’histoire se divise en deux parties.

OpenAI est toujours aux prises avec des fuites de conversations via ChatGPT

La première partie de l’histoire implique un lecteur ArsTechnica montrant des captures d’écran assez troublantes. Selon la publication, le lecteur en question utilise largement ChatGPT. Eh bien, après s’être connecté au service un jour, le lecteur a remarqué plusieurs conversations qui semblaient surgir de nulle part. Ils n’ont pas eu ces conversations avec ChatGPT.

C’est assez étrange, mais les choses empirent lorsque l’on réalise le contenu des conversations. L’une des conversations impliquait un employé d’une pharmacie utilisant ChatGPT pour dépanner un portail de médicaments. En regardant la conversation expurgée, il est évident que le travailleur était très frustré.

Cependant, ce qui est plus choquant dans la conversation, c’est que les travailleurs semblaient avoir divulgué une tonne d’informations sensibles au cours de la conversation. Cela inclut plusieurs noms d’utilisateur et mots de passe ainsi que le nom du portail qu’ils utilisaient. Ainsi, entre de mauvaises mains, cela pourrait s’avérer dévastateur pour la pharmacie en question et pour toutes les personnes qui dépendent de leurs médicaments.

Ce n’est qu’une des conversations qui ont été divulguées via ChatGPT et nous ne sommes pas entièrement sûrs de son ampleur. Quoi qu’il en soit, ce n’est pas quelque chose que quiconque souhaite voir. Même s’ils ne sont pas censés le faire, les gens ont parfois tendance à insérer des informations sensibles dans leurs conversations avec le chatbot.

OpenAI a répondu

Passons maintenant à la deuxième partie de l’histoire. D’emblée, cela semble être une tournure des événements très dévastatrice. Cependant, il semble que la publication d’ArsTechnica soit arrivée un peu trop tôt. Android Authority a contacté OpenAI au sujet de la situation et la société a répondu.

« ArsTechnica a publié avant que nos équipes de fraude et de sécurité n’aient pu terminer leur enquête, et leurs rapports sont malheureusement inexacts. D’après nos conclusions, les informations de connexion au compte des utilisateurs ont été compromises et un acteur malveillant a ensuite utilisé le compte. L’historique des discussions et les fichiers affichés sont des conversations résultant d’une utilisation abusive de ce compte, et il ne s’agit pas d’un cas où ChatGPT affiche l’historique d’un autre utilisateur.

Il semble donc que ChatGPT ne transmet pas au hasard des conversations à d’autres utilisateurs, comme s’il distribuait des cartes de poker. L’utilisateur en question semble avoir été piraté par un mauvais acteur. Ce hacker inconnu a ensuite divulgué les conversations.

Bien que nous n’ayons aucune preuve pour contester OpenAI, l’explication semble un peu étrange, mais plutôt incomplète. Le mauvais acteur a choisi de divulguer les conversations à des personnes aléatoires – cela semble bizarre. Dans tous les cas, il semble que ChatGPT ne divulgue pas arbitrairement des conversations à d’autres utilisateurs de ChatGPT. De toute évidence, il y a plus dans cette histoire de mauvais acteur, mais les utilisateurs devraient, espérons-le, être rassurés.

C’est important pas pour partager des informations personnelles avec n’importe quel chatbot IA. Vous ne savez jamais où finissent ces données. Malheureusement pour le pharmacien, les identifiants de connexion se trouvent désormais sur les serveurs OpenAI,

Je vous tiendrai au courant de cette histoire au fur et à mesure que plus de détails seront dévoilés.

A lire également