Il est de plus en plus difficile de savoir ce qui a été généré par l'IA sur Internet, et cela vaut particulièrement pour le texte généré par l'IA. Il est beaucoup plus facile pour l'IA de simuler du texte que de simuler de l'audio, des images ou des vidéos. En tant que tel, filigraner ledit contenu semble être une tâche impossible. Cependant, il semble que Google ait une solution sous la forme de l'outil SynthID Text.
Étant donné que l'IA est si convaincante, il est important de disposer d'outils pour aider les gens à identifier si un document de recherche a été craché par ChatGPT. Bien que tricher sur votre rapport universitaire soit une mauvaise chose, c'est loin d'être la chose la plus nuisible que vous puissiez faire avec un texte généré par l'IA. Un problème majeur est la diffusion de fausses informations et d’autres contenus préjudiciables.
C'est là qu'intervient Google SynthID Text
Les entreprises qui nous fournissent les chatbots IA les plus puissants essaient également de nous fournir des outils pour nous aider à identifier quand quelque chose a été créé par ces chatbots. OpenAI a développé et testé des outils pour aider à identifier quand quelque chose a été créé par ChatGPT, mais la société n'a pas jugé bon de le publier.
Google, en revanche, nous a offert un outil de filigrane. Comme son nom l'indique, il s'agit d'un outil que les gens pourront utiliser pour identifier si une section de texte est générée par l'IA. SynthID Text est disponible gratuitement pour les développeurs et les entreprises à partir d'aujourd'hui. Nous ne savons pas si Google va publier un outil destiné aux utilisateurs occasionnels pour vérifier si le texte est généré par l'IA.
Texte en filigrane ?
Cela semble être quelque chose qui devrait être pratiquement impossible à faire. Il est plus facile de comprendre le filigrane des images générées par l’IA. Cependant, le texte est beaucoup plus facile à modifier. Vous pouvez facilement modifier ou paraphraser le texte produit par un chatbot. Google a réussi à trouver une solution, mais elle n'est pas parfaite.
Cette méthode a à voir avec ce qu'on appelle Jetons. Si vous avez utilisé des outils d'IA, vous avez probablement vu ce terme utilisé. Lorsque vous utilisez un outil d'IA, vous saisissez des données et obtenez des données en sortie. Par exemple, taper une invite « écrivez une histoire sur un lapin » dans un chatbot et obtenir une histoire de 100 mots en réponse.
Eh bien, le texte de votre invite est divisé en ce qu'on appelle des jetons. Il s'agit de sections de mots ou de mots entiers que vous entrez dans un modèle pour être décomposés et analysés. Votre réponse est également composée de jetons.
Eh bien, selon Google, lorsqu'un modèle génère du texte, il attribue à chaque jeton un score basé sur la probabilité qu'il soit utilisé dans la réponse. Ce que fait SynthID Text, c'est d'insérer des informations supplémentaires dans chaque jeton en « moduler la probabilité de génération de jetons. » Ensuite, Google compare le score de la sortie du modèle d'origine au score ajusté. Le modèle final de ces scores est alors «par rapport au modèle de scores attendu pour le texte filigrané et non filigrané, aidant SynthID à détecter si un outil d'IA a généré le texte ou s'il peut provenir d'autres sources, » dit Google.
Limites
Cela fait beaucoup de choses à prendre en compte, mais la chose importante à noter est que c'est un outil assez efficace. Le seul problème est que ce n’est pas une solution étanche. SynthID Text n'est pas aussi précis lorsqu'il s'agit de morceaux de texte plus courts. Ainsi, vous aurez plus de chance si quelqu'un souhaite générer un roman ou un rapport universitaire, mais vous aurez des problèmes s'il s'agit d'un texte publicitaire.
De plus, cet outil aura du mal avec le texte traduit d'une autre langue ou réécrit. Cela a du sens, car cela modifierait fondamentalement tous les éléments du texte original.
Parallèlement à cela, les réponses aux questions factuelles constituent également un problème pour SynthID Text. En effet, il est difficile d’ajuster les scores symboliques sans modifier les informations factuelles réelles contenues dans la réponse. Si vous parlez de l'habitat naturel d'un certain oiseau, vous ne pouvez pas changer grand-chose dans votre réponse avant de commencer à changer les faits réels.
Dans une annonce quelque peu surprenante, Google a déclaré que cet outil avait été intégré à Gemini il y a des mois, et la plupart d'entre nous ne le savaient même pas. Espérons que cet outil ouvrira la voie à d’autres outils qui nous aideront à détecter le contenu généré par l’IA.
