La bataille sur le droit d'auteur et la formation sur l'IA se poursuit sans relâche. Dans l'ensemble, les éditeurs n'ont pas encore obtenu une victoire vraiment claire qui pourrait servir de précédent contre l'utilisation du contenu pour nourrir les LLM. Désormais, un développement récent pourrait façonner considérablement l'avenir de l'intelligence artificielle en faveur des sociétés d'IA. Anthropic, une société mère de Claude AI, a remporté un cas de droit d'auteur majeur. Cela dit, il y a toujours une question connexe en attente.
Un juge fédéral de San Francisco a rendu une décision nuancée dans un procès majeur sur le droit d'auteur impliquant la société d'IA Anthropic. La décision offre une victoire cruciale pour l'industrie de l'IA concernant la formation des modèles d'IA. Cependant, il envoie également un message clair sur la légalité de leurs sources de données.
Anthropic gagne le cas du droit d'auteur, créant un précédent en faveur de la formation de l'IA
Au cœur de la question, l'utilisation de livres protégés par le droit d'auteur pour former des modèles d'IA constitue une «utilisation équitable» en vertu de la loi sur le droit d'auteur américain. Les auteurs Andrea Bartz, Charles Graeber et Kirk Wallace Johnson avaient déposé une plainte contre Anthropic. Ils ont fait valoir que la société d'IA avait utilisé leurs livres sans autorisation pour enseigner au Claude Chatbot à répondre aux invites humaines.
Le juge de district américain William Alsup a statué que l'acte d'Anthropic d'utiliser ces livres pour la formation de son IA était en effet une «utilisation équitable» et «extrêmement transformatrice». Le juge a estimé que, tout comme un élève apprend de la lecture pour écrire quelque chose de nouveau, les systèmes d'IA d'Anthropic s'entraînent sur les œuvres pour ne pas les reproduire. La plate-forme AI utilise ce contenu pour générer un contenu entièrement différent. Cette partie de la décision est une victoire significative pour les entreprises de l'IA, fournissant un précédent que la formation générative de l'IA, lorsqu'elle est faite transformativement, s'aligne sur le but du droit d'auteur de favoriser la créativité et les progrès scientifiques. La décision en particulier la numérisation des livres légalement achetés pour la formation des modèles d'IA.
Anthropic sera toujours confronté à un cas séparé pour la violation du droit d'auteur
Cependant, la décision est venue avec une mise en garde significative. Le juge Alsup a également déterminé que l'acte séparé d'Anthropic de copier et de stockage de plus de 7 millions de livres piratés dans une «bibliothèque centrale» n'était pas une utilisation équitable et n'a clairement pas atteint les droits d'auteur des auteurs. Cette vaste collection de matériel piraté, même si elle n'est pas directement utilisée pour la formation de l'IA, a été considérée comme une violation. Le juge a explicitement déclaré que le simple fait d'acheter une copie légitime d'un livre plus tard n'absouvant pas la responsabilité du vol antérieur à partir de sites de pirates.
Cela signifie que Anthropic sera désormais confronté à un essai séparé en décembre pour déterminer les dommages qu'il doit pour cette violation. La société pourrait avoir à payer des dommages-intérêts légaux allant jusqu'à 150 000 $ pour chaque travail.
Une décision qui pourrait changer le paysage de l'IA pour toujours
Cette décision est un moment central dans les batailles juridiques en cours entre les créateurs de contenu et les développeurs d'IA. Ce cas soutient largement l'idée que l'utilisation du matériel protégé par le droit d'auteur pour la formation en IA se situe dans le domaine de l'utilisation équitable. Cependant, il établit fermement l'importance critique de l'approvisionnement de ces données de formation. La décision n'a pas examiné si les résultats réels générés par un modèle d'IA ont atteint des droits d'auteur, une question distincte mais tout aussi importante étant débattue dans d'autres poursuites dans l'industrie.
En fin de compte, cette décision souligne le paysage juridique en évolution entourant l'IA. Il donne aux entreprises d'IA une voie plus claire pour la formation de leurs modèles, mais souligne la nécessité d'une acquisition minutieuse et légale de leurs données de formation.
