De temps en temps, l’industrie technologique nous laisse des nouvelles amusantes en raison de leur caractère surréaliste. Actuellement, les développements basés sur l’intelligence artificielle sont très répandus dans notre vie quotidienne. Ce n’était donc qu’une question de temps avant que quelque chose de connexe ne surgisse. Une loi du Minnesota qui attaque le contenu réaliste généré par l’IA – également connu sous le nom de « deepfakes » – pourrait avoir été rédigée par une IA.
Une IA aurait pu écrire la « loi anti-deepfake » du Minnesota
La loi en question s’intitule «Utilisation de fausses technologies pour influencer une élection.» Ironiquement, il est contesté pour avoir montré des traces d’IA générative dans son contenu. L’appel ne mentionne pas la rédaction de paragraphes avec AI. Cependant, il existe des citations d’études qui n’existent pas réellement.
Il est possible que les études mentionnées soient le résultat des hallucinations de la plateforme d'IA. En intelligence artificielle, les « hallucinations » sont des segments d’informations incorrectes ou directement « inventées » par le service. Les développeurs de chatbots IA travaillent dur pour les réduire au minimum afin de fournir le résultat le plus précis possible. Cependant, un petit pourcentage de réponses inexactes se produisent encore en raison d'hallucinations.
Les citations de sources inexistantes pourraient être le produit d’hallucinations de l’IA
Comme le rapporte The Minnesota Reformer, le juge chargé de l'affaire, le général Keith Ellison, a demandé à Jeff Hancock, directeur fondateur du Stanford Social Media Lab, de se soumettre à la loi. Cependant, il est vite apparu que des études inexistantes figuraient parmi les citations. Le document citait des études telles que «L'influence des vidéos Deepfake sur les attitudes et les comportements politiques» du Journal of Information Technology & Politics. Il n’existe aucune trace d’une telle étude.
Une autre citation, « Deepfakes et illusion d’authenticité : processus cognitifs derrière l’acceptation de la désinformation», n’existe pas non plus. « La citation porte les caractéristiques d'une « hallucination » d'intelligence artificielle (IA), suggérant qu'au moins la citation a été générée par un grand modèle de langage comme ChatGPT.« , argumentent les avocats de Mary Franson, représentante de l'État du Minnesota, et de M. Reagan, un YouTuber conservateur.
« Les plaignants ne savent pas comment cette hallucination a abouti à la déclaration de Hancock, mais elle remet en question l'ensemble du document, en particulier lorsqu'une grande partie du commentaire ne contient aucune méthodologie ou logique analytique.», dit l’appel à la loi.