Il n’y a aucun moyen de l’éviter ; Le contenu généré par l’IA envahit pratiquement Internet. Des entreprises comme Google et Adobe cherchent à faciliter la détection du moment où le contenu est généré avec l’IA. Selon un nouveau rapport, Meta souhaite que les utilisateurs divulguent lorsqu’ils publient du contenu IA. Dans le cas contraire, ils courent le risque de se le faire retirer,
Il est difficile d’aller n’importe où sur Internet sans voir une sorte de contenu IA. Instagram regorge d’images générées par l’IA, YouTube regorge de vidéos générées par l’IA, etc. C’est pourquoi les entreprises cherchent à créer des outils pour mieux identifier quand le contenu est synthétique.
Google dispose d’un système de filigrane appelé SynthID pour identifier quand les gens créent du contenu à l’aide de son générateur d’images. La société a également étendu cela aux fichiers audio. Meta dispose également d’un système de filigrane qui s’applique aux images réalisées avec son générateur Imagine AI. Certains médias générés par l’IA sont évidemment générés par l’IA, mais de nombreux contenus publiés de nos jours peuvent tromper les masses.
C’est un problème tel quel. Cependant, 2024 est une année électorale, ce qui fait de l’IA un terrain fertile pour la désinformation et les images trompeuses. C’est pourquoi il est crucial que ces entreprises facilitent l’identification du contenu de l’IA.
Meta veut que les utilisateurs divulguent s’ils publient du contenu IA
Meta possède Facebook, Instagram et Threads. Ce sont trois applications qui ont vu une tonne de contenu généré par l’IA. C’est au point que les gens craignent que cela envahisse ces plateformes. Meta travaille sur des outils pour aider les gens à identifier quand l’IA a été utilisée pour créer du contenu. Il sera appliqué au contenu créé à l’aide de Google, Adobe, MidJourney, etc. Créer des outils capables de détecter le contenu créé artificiellement est un défi de taille.
Eh bien, la société fait appel à l’aide des personnes qui publient des messages pour l’aider à identifier le contenu de l’IA. L’entreprise commencera à exiger des gens qu’ils divulguent si le contenu est créé avec l’IA. S’ils n’y parviennent pas et que Meta identifie qu’il est généré par l’IA, le créateur pourrait faire face à certaines conséquences. Nick Clegg, président des affaires mondiales de Meta, a déclaré que si un utilisateur ne divulgue pas le contenu de son IA, alors « l’éventail des sanctions qui s’appliqueront couvrira toute la gamme, depuis les avertissements jusqu’à la suppression ».
C’est un pas dans la bonne direction
Les entreprises qui nous fournissent les outils nécessaires pour créer du contenu généré par l’IA nous fournissent désormais des outils pour nous aider à identifier le contenu. C’est certainement un pas dans la bonne direction, car on ne sait pas quel effet le contact générique de l’IA aura sur la communauté technologique. Bien sûr, les publications inoffensives sur les réseaux sociaux et les selfies filtrés par l’IA ne sont pas dangereux. Cependant, il pourrait y avoir des conséquences majeures si le contenu généré par l’IA devenait trop réel.
Nous avons déjà vu l’IA être utilisée pour imiter des personnalités publiques et leur faire faire ou dire des choses peu recommandables. Un exemple est la controverse actuelle concernant la pornographie génératrice d’IA de Taylor Swift.
Être capable de contrôler correctement ce contenu est l’une des choses les plus cruciales que les entreprises technologiques puissent faire. S’ils lâchent la balle, nous devrons simplement attendre et découvrir les conséquences à nos dépens.
