Un groupe de journalistes américains a poursuivi plusieurs grandes sociétés d’intelligence artificielle, notamment OpenAI, Google, xAI d’Elon Musk, Anthropic, Meta Platforms et Perplexity. La raison en serait l’utilisation de livres protégés par le droit d’auteur sans consentement pour entraîner leurs systèmes d’IA. Les pétitionnaires, dont le journaliste du New York Times John Carreyrou, ont intenté une action en justice lundi.
John Carreyrou, journaliste du New York Times et auteur de « Bad Blood », a intenté une action en justice devant un tribunal fédéral de Californie avec cinq autres écrivains. Ils accusent les sociétés d’IA de pirater leurs œuvres littéraires protégées pour développer leurs grands modèles de langage (LLM) qui alimentent les chatbots d’IA des entreprises. Les entreprises n’ont pas obtenu de licences ni rémunéré les auteurs.
« Cette affaire concerne un acte de vol simple et délibéré constitutif d’une violation du droit d’auteur.« , indique le dossier. Il s’agit de l’une des nombreuses affaires de droit d’auteur intentées par des auteurs et d’autres titulaires de droits d’auteur contre les entreprises technologiques. Cependant, cette affaire est apparemment la première à nommer xAI comme défendeur.
Les auteurs accusent les sociétés d’IA d’avoir utilisé des livres protégés par le droit d’auteur pour former des systèmes d’IA.
Selon les pétitionnaires, les sociétés d’IA ont accédé à des copies piratées de livres via des bibliothèques fantômes, notamment LibGen, Z-Library et OceanofPDF. Ces copies auraient été intégrées dans des systèmes d’IA pour accélérer leur développement. Le procès affirmait que la violation présumée avait touché des centaines d’auteurs, notamment des écrivains à succès et des journalistes lauréats du prix Pulitzer.
Contrairement à d’autres affaires en cours, les auteurs de cette affaire ne poursuivent pas de recours collectif. Il s’agit d’un type de procès qui favoriserait les défendeurs en leur permettant de négocier un règlement unique. Au lieu de cela, il souhaite que les réclamations individuelles soient évaluées par un jury.
« Les sociétés LLM ne devraient pas être en mesure d’éteindre aussi facilement des milliers et des milliers de réclamations de grande valeur à des tarifs défiant toute concurrence.« , indique la plainte. Les plaignants soutiennent que les règlements de recours collectifs existants ne reflètent pas vraiment l’ampleur de l’infraction alléguée.
Les écrivains, dans ce cas, ne poursuivent pas de recours collectif
Auparavant, Anthropic avait conclu le premier règlement majeur dans une affaire de droits d’auteur sur la formation en IA en août. Elle a accepté de verser 1,5 milliard de dollars aux auteurs qui prétendaient avoir piraté des millions de livres. Le nouveau procès estime que les membres du groupe dans cette affaire ne recevront que 2 %, ce qu’il décrit comme « une infime fraction », du plafond statutaire de la Loi sur le droit d’auteur de 150 000 $ par œuvre violée.
Pendant ce temps, les entreprises d’IA soutiennent que l’utilisation de matériel protégé par le droit d’auteur pour former des modèles d’IA est considérée comme une utilisation équitable. En effet, les systèmes génèrent des résultats nouveaux et transformateurs plutôt que de reproduire des œuvres originales. Dans une affaire antérieure, un juge américain a estimé que l’utilisation par Anthropic de livres protégés par le droit d’auteur pour la formation en IA équivalait à un usage loyal. Cependant, il a jugé que l’entreprise avait violé la loi sur le droit d’auteur en stockant des millions de livres piratés dans une base de données centrale. Et ce, qu’ils aient ou non été utilisés pour entraîner l’IA.
