Les images générées par l’IA ont toujours été une source de préoccupation majeure pour les experts et les gouvernements en raison de la possibilité que les acteurs malveillants les exploitent pour diffuser de la désinformation et de la haine. Cependant, Google a peut-être trouvé une solution, puisque la société a annoncé un nouveau système appelé SynthID, qui ajoute automatiquement un filigrane numérique aux images générées par l’IA.

Développé par DeepMind, filiale de Google, la fonction principale de l’outil SynthID est d’intégrer un filigrane invisible dans les images générées par Imagen, le modèle texte-image de Google. De plus, DeepMind explique qu’il exploite deux modèles d’IA, un pour le filigrane et un autre pour l’identification, tous deux formés sur un ensemble de données d’images diversifié. De plus, en ce qui concerne les fonctionnalités, l’outil utilise une approche de classification à plusieurs niveaux basée sur trois niveaux de confiance en filigrane numérique : détecté, non détecté et éventuellement détecté.

Cependant, il est important de noter que le système n’est pas précis à 100 %, mais il peut efficacement différencier les images susceptibles de contenir des filigranes de celles qui n’en contiennent pas.

« Si l’IA générative peut libérer un énorme potentiel créatif, elle présente également de nouveaux risques, comme permettre aux créateurs de diffuser de fausses informations, intentionnellement ou non. Être capable d’identifier le contenu généré par l’IA est essentiel pour permettre aux gens de savoir quand ils interagissent avec les médias générés et pour aider à prévenir la propagation de la désinformation », lit-on dans le blog de DeepMind.

Un pas dans la bonne direction

Cette annonce de cet outil fait suite à une réunion de la Maison Blanche en juillet, au cours de laquelle le gouvernement américain a souligné la nécessité de « filigraner le contenu audio et visuel pour aider à indiquer clairement que le contenu est généré par l’IA ». De plus, les gouvernements du monde entier ont commencé à mettre en œuvre des mesures similaires, y compris la Chine, qui a récemment publié des réglementations obligeant les fournisseurs d’IA générative à étiqueter leur production, englobant à la fois le contenu textuel et visuel.

En outre, à l’instar de l’approche de Google, plusieurs autres sociétés influentes du secteur de l’IA se sont engagées à appliquer un filigrane au contenu généré par l’IA. Microsoft, par exemple, s’est engagé à filigraner les images et vidéos générées par l’IA à l’aide de techniques cryptographiques. De plus, Midjourney a établi des lignes directrices qui intègrent des indicateurs indiquant le contenu produit via des outils génératifs d’IA.

A lire également