La prochaine grande étape pour les entreprises d’IA est de mettre en place un système d’étiquetage approprié pour informer les utilisateurs lorsque du contenu a été généré artificiellement. Des entreprises comme Meta ont une longueur d’avance à cet égard, mais il leur reste encore quelques bugs à résoudre. Selon un nouveau rapport, Meta a dû changer son étiquette d’IA en « AI Info » après des plaintes de photographes.

L'entreprise a mis en place un système qui signale les contenus qui, selon elle, auraient pu être générés par l'IA. La plupart des images générées par l'IA sur la plateforme sont évidentes, mais la technologie a progressé au point que certains médias peuvent tromper l'œil. C'est pourquoi un système d'étiquetage approprié est important.

Nous sommes actuellement en année électorale et, soyons honnêtes, Facebook n'est pas vraiment connu pour être une plateforme regorgeant d'informations exactes. Il existe donc toujours la menace de la désinformation par le biais d'images générées par l'IA.

Meta a dû changer son label IA après les plaintes des photographes

Outre l’absence d’étiquettes d’IA, nous devons également faire face à un problème : les entreprises étiquettent à tort le contenu comme généré par l’IA. C’est un problème auquel les photographes sont confrontés depuis un certain temps, car Meta semble étiqueter des images réelles comme générées par l’IA. Un exemple est celui d’une photo d’un match de baseball datant d’il y a 40 ans. Comme vous pouvez l’imaginer, la génération d’images par l’IA n’était pas si géniale en 1984.

Meta a donc changé son étiquette « Made with AI » en « AI Info ». Cela peut sembler être un changement mineur, mais c'est quelque chose qui, selon l'entreprise, lui permettra d'éviter de se retrouver dans une situation délicate. Plutôt que de dire que l'image a été construite avec une technologie d'IA, elle dira essentiellement qu'il pourrait y avoir eu une manipulation de l'IA.

De nos jours, de nombreuses images publiées ont été modifiées à l'aide d'un outil d'IA tel que l'outil Generative Fill de Photoshop. Le problème est que, lorsque certains outils comme ceux-ci sont utilisés, Photoshop ajoute des métadonnées à l'image pour informer la plateforme que l'IA a été utilisée. Des plateformes comme Facebook, Instagram et Threads utilisent ces données pour savoir s'il y a eu une manipulation de l'IA.

Pour l'instant, nous attendons toujours un système d'étiquetage approprié, mais nous ne sommes pas sûrs qu'il soit un jour disponible. Les entreprises qui travaillent sur ces systèmes investissent également des milliards de dollars pour rendre les images générées par l'IA plus réalistes.

A lire également