Chaque fois que vous parlez du sujet de l’intelligence artificielle, vous parlez de quelque chose de moralement gris et potentiellement dévastateur. Le cas est le même avec l’outil Universal Translator dont Google a parlé lors de Google I/O. La société a parlé du bien potentiel que cet outil peut apporter avec le mal potentiel (via Techcrunch).

Avec l’introduction de Bard, l’outil qui peut être utilisé pour créer du code et du contenu écrit, et MusicLM, l’outil qui peut être utilisé pour générer instantanément de la musique à partir d’une invite de texte, Google a définitivement parlé d’une technologie effrayante qui pourrait faire beaucoup de mal . Universal Translator n’est pas différent.

Il s’agit d’une technologie assez innovante qui peut aider les gens à traduire la parole. La technologie prendra une vidéo de quelqu’un qui parle et la doublera dans une langue différente. Cela impliquera de traduire le discours et de reproduire une voix générée par l’IA qui correspond à la voix et au ton de l’orateur d’origine. Enfin, Google utilisera l’IA pour synchroniser les lèvres de l’orateur avec l’audio nouvellement généré.

Ce sera comme si l’orateur avait initialement enregistré la vidéo dans une langue différente.

Google reconnaît que l’outil Universal Translator peut être utilisé à des fins nuisibles

L’intelligence artificielle est, et a été, à la frontière entre l’utile et le dangereux. L’utilisation de voix générées par l’IA et d’une technologie de contrefaçon profonde se glisse hors de The Uncanny Valley et dans Realism City. Il devient de plus en plus difficile de faire la distinction entre les voix générées par l’IA et la réalité.

Cela signifie que nous approchons de la capacité de générer n’importe quelle personne disant ou faisant n’importe quoi. Vous détestez une célébrité ? Vous pouvez faire une fausse vidéo d’eux disant des choses racistes ou antisémites. Êtes-vous un ex jaloux? Eh bien, vous pouvez générer de fausses vidéos ou audio d’eux trompant leur amant actuel. Cela devient de moins en moins impossible.

C’est pourquoi, lors de la présentation, James Manyika a noté la phrase « Bold and Responsible ». Cela signifie que Google, avant de mettre cette technologie à la disposition du grand public, fera son possible pour s’assurer que les personnes malveillantes ne pourront pas utiliser cette technologie pour des actes malveillants.

Le fait est qu’il est difficile de voir comment l’entreprise pourra y parvenir. Il n’y a qu’un seul Google, mais il y a des millions de personnes malveillantes. Cela pourrait facilement devenir incontrôlable et causer de réels dommages à des innocents. Nous devrons simplement voir comment les choses se déroulent et espérer que Google sait ce qu’il fait.

A lire également