À l’heure actuelle, OpenAI, la société derrière ChatGPT et DALL-E, est aux prises avec une bataille juridique passionnée. L’affaire indique que la façon dont il obtient des données pour former ChatGPT – en grattant des données publiques sur Internet – est une violation massive de la vie privée des personnes. Il semble que Google surveille de près, car la société a mis à jour sa politique de confidentialité. Dans le processus, il confirme qu’il récupère des données pour former Google Bard.

Nous savons qu’OpenAI va mener cette bataille juridique pendant un certain temps, et le résultat pourrait avoir un impact sur le cours de l’IA à l’avenir. Nous avons un éditorial sur cette affaire, et vous pouvez cliquer ici pour le lire.

Google confirme qu’il récupère des données pour former Bard

En regardant l’eau chaude dans laquelle se trouve OpenAI, il n’est pas surprenant que Google cherche à se couvrir. Le géant de la recherche est tout à fait le collectionneur d’affaires judiciaires à son encontre.

Selon Gizmodo (via Le bord) Google a mis à jour sa politique de confidentialité le 1er juillet. L’entreprise n’a pas vraiment changé grand-chose au contenu de la politique. Cependant, il est plus clair sur le fait qu’il récupère des données pour former ses produits d’IA. Cela inclut Bard, mais ce n’est pas limité à cela. « …nous utilisons des informations accessibles au public pour aider à former les modèles d’IA de Google et à créer des produits et des fonctionnalités telles que Google Translate, Bard et les capacités Cloud AI.”

Le fait qu’il précise qu’il utilise des données accessibles au public pour former ses modèles d’IA, espère la société, l’empêchera de prendre feu. Une grande partie de l’affaire contre OpenAI est le fait qu’il ne l’a pas précisé. Les gens voient, sans le savoir, leurs données récupérées pour être utilisées pour l’IA.

La clarification n’est pas le point

Google a précisé qu’il récupère les données, super ; l’entreprise obtient une étoile d’or. Mais ce n’est pas le sujet. Ce changement maintient à peine l’entreprise dans la zone grise entre le légal et l’illégal. Peut-être que cela le gardera hors des yeux des législateurs et des agences gouvernementales pour le moment.

Mais cela ne fait rien pour les personnes dont il récupère les données. Au fur et à mesure que l’IA progresse, elle écrase de plus en plus de personnes. Artistes, journalistes, écrivains créatifs, musiciens, compositeurs, développeurs, etc. Clarifier à ces personnes que leurs données sont utilisées pour former les modèles d’IA qui les mettront au chômage n’améliore pas la situation.

Si Google, OpenAI et d’autres sociétés d’IA sont vraiment soucieux de contrôler leurs créations, ils devront faire mieux que cela. Sinon, ils devraient clarifier qu’ils ne se soucient que de l’argent, et non des personnes affectées par leurs produits.

A lire également