Au moment de la rédaction de cet article, OpenAI est au milieu d’une assez grande bataille juridique. Une entreprise californienne affirme qu’OpenAI a violé la vie privée de ses utilisateurs lors de la formation de son chatbot ChatGPT. En raison de cette affirmation et de la quantité de données que l’entreprise a recueillies pour son chatbot, cela pourrait avoir des implications majeures pour OpenAI et d’autres sociétés d’IA. La question est : OpenAI a-t-il tort dans cette situation ?
De quoi s’agit-il ?
Une fois qu’on a vu de quoi il s’agit, il est facile de saisir la gravité de la situation. Maintenant, l’IA est comme un cerveau humain ; il doit être formé. Il faut que ce soit enseigné. Les entreprises introduisent des tonnes de données dans leurs LLM (Large Language Models) afin qu’elles puissent apprendre. Plus les LLM en savent, plus ils peuvent être utiles. Google est l’une des principales sociétés d’IA car elle a accès à un milliard de tonnes de données via la recherche Google, Android, etc.
Dans le cas de ChatGPT, il utilise également un LLM qui doit être formé ; et l’entreprise l’a formé à l’aide d’une tonne de données. Le problème réside dans certains des endroits où il a obtenu ces informations. L’entreprise a utilisé une pléthore de données provenant d’Internet. Cela inclut un tas de données que les gens ont téléchargées sans donner leur consentement pour être utilisées par un chatbot IA.
Nous parlons d’articles, de billets de blog, de nouvelles, de scénarios, de poèmes, de publications sur les réseaux sociaux, etc. La liste est longue. Étant donné que les connaissances de ChatGPT remontent si loin, on ne sait pas quelle quantité de données des personnes a été utilisée pour former ChatGPT. Le procès indique que ces informations ont été obtenues sans le consentement de l’auteur de l’affiche originale.
C’est pourquoi OpenAI est dans l’eau chaude. L’ampleur des informations qu’OpenAI a introduites dans ChatGPT est gigantesque. Si le tribunal conclut que l’entreprise est en faute, cela pourrait signifier de mauvaises nouvelles pour l’IA en général.
Alors, OpenAI a-t-il tort ?
C’est le Far West pour l’IA, car les législateurs cherchent encore à le réglementer. Alors qu’ils se battent contre la légalité de l’IA, les Joes moyens s’occupent de sa moralité. OpenAI a-t-il tort d’utiliser autant de données pour entraîner ChatGPT ?
On pourrait dire oui.
Une grande partie de cet argument vient de la controverse avec l’art généré par l’IA. Il y a une protestation en cours contre cette technologie parce qu’elle donne aux gens la possibilité de créer instantanément des images avec rien d’autre que des mots. Tout comme avec ChatGPT, les générateurs d’images AI doivent être alimentés par des images d’art d’artistes humains. De nombreux artistes humains ne veulent pas que leur art soit utilisé pour former ces robots d’image.
Eh bien, pensez aux personnes dont le contenu écrit est utilisé pour former ChatGPT. Tout comme la façon dont les générateurs d’images peuvent mettre les artistes en faillite, les chatbots peuvent également mettre les écrivains en faillite. Les chatbots peuvent générer des articles, des nouvelles, des scripts, des articles de blog, etc. en quelques secondes. Pourquoi embaucher et payer un écrivain humain alors que vous pouvez simplement générer votre contenu ? Naturellement, les écrivains humains qui ont passé des années à développer leur art auraient pas veulent que leur contenu soit utilisé pour former la machine même qui pourrait les mettre au chômage.
Ce sont des gens qui ont besoin de travailler pour gagner leur vie. Les journalistes publient leurs articles sur des sites Web publics, les écrivains publient des articles de blog pour les sites Web publics d’entreprises, etc. Ils le font pour partager leur art avec les lecteurs et, espérons-le, inspirer d’autres écrivains. Ils ne se sont pas inscrits pour que leur travail soit récupéré et utilisé pour former des chatbots IA.
D’autres peuvent dire non
Il y a deux côtés à cet argument. Lorsque des artistes, des écrivains et des musiciens publient leur travail en ligne, ils courent le risque qu’il soit utilisé à d’autres fins. Ce n’est pas très différent d’avoir votre contenu volé et plagié. Les créateurs publient leur contenu en sachant qu’il pourrait être récupéré et utilisé à d’autres fins.
La conversation devient encore plus poilue si le contenu n’est pas protégé par le droit d’auteur. Si votre contenu est disponible gratuitement sur Internet pour que quiconque puisse le saisir, alors OpenAI pourrait être dans son droit de l’utiliser pour former ChatGPT.
Si OpenAI perd le procès, ce pourrait être une bonne chose
Ceux d’entre vous qui utilisent ChatGPT pour écrire leurs essais et autres sont très probablement enracinés pour qu’OpenAI gagne le procès. Cependant, si l’entreprise perd l’affaire, ce n’est peut-être pas la pire des choses. Bien sûr, OpenAI fera face à une perte financière, ce qui n’est pas formidable pour l’entreprise. Cependant, si le tribunal gagne cette affaire, cela pourrait aider à faire avancer la réglementation de l’IA.
Comme indiqué précédemment, c’est le Far West pour la réglementation de l’IA. Les législateurs se bousculent pour freiner le développement de l’IA et s’assurer qu’il n’aura pas d’effets négatifs. Le droit des gens à leur contenu n’a jamais été aussi menacé alors que les générateurs d’images d’IA et les chatbots d’IA surgissent partout. Le contenu de partout sur Internet est récupéré et utilisé pour ces LLM, et il n’y a aucun moyen d’y mettre un terme.
Si OpenAI perd cette affaire, il mettra ce problème au premier plan. Cela incitera les gens à parler de la façon dont ces LLM obtiennent leurs informations. Les gens pleurent pour que l’IA soit réglementée à ce stade. Cela fait que des gens perdent leur emploi. Les créateurs indépendants sont supplantés par des personnes sans talent qui génèrent du contenu et le commercialisent. Quelqu’un peut facilement créer une « chanson » générée par l’IA et la commercialiser sur Spotify. Imaginez sortir un album entier en une journée ou une semaine et en tirer des revenus.
Il en va de même pour les « artistes » et les « auteurs » de l’IA. Il est peut-être déjà trop tard pour la plupart des gens. Nous sommes encore en train d’apprendre le potentiel de la technologie d’IA générative ; cela inclut le potentiel de mauvais.
Seul le temps nous le dira
À ce stade, nous attendons toujours les résultats de l’affaire, il est donc difficile de dire ce qui va se passer. Nous devrons attendre et voir comment ce cas se développe pour connaître l’avenir de la technologie. Un cas comme celui-ci pourrait certainement avoir des ramifications majeures pour l’IA.
