YouTube met en œuvre de nouvelles mesures pour lutter contre la montée des deepfakes générés par l’IA qui « simulent de manière réaliste » des mineurs décédés ou des victimes d’événements violents décrivant leur mort. Le changement de politique, qui devrait entrer en vigueur le 16 janvier, vise à remédier aux cas où l’IA est utilisée pour recréer l’image d’enfants décédés ou disparus.

Les créateurs de contenu sur de véritables crimes exploitent les technologies de l’IA pour fournir aux enfants victimes d’affaires très médiatisées une « voix » synthétique pour raconter les circonstances de leur décès. Cette décision fait suite aux récits troublants de l’IA sur des cas tels que l’enlèvement et la mort de James Bulger, la disparition de Madeleine McCann et le meurtre par torture de Gabriel Fernández.

YouTube supprimera le contenu contenant des deepfakes générés par l’IA qui enfreint les nouvelles politiques, et les utilisateurs recevant un avertissement seront confrontés à une restriction d’une semaine sur le téléchargement de vidéos, de diffusion en direct ou d’histoires. Les contrevenants persistants ayant reçu trois avertissements verront leurs chaînes définitivement supprimées de la plateforme. Cette initiative fait partie des efforts plus larges de YouTube visant à lutter contre les contenus qui enfreignent les politiques de la plateforme en matière de harcèlement et de cyberintimidation.

Les créateurs devront divulguer lorsqu’ils utilisent du contenu modifié ou synthétique qui semble réaliste

La plate-forme a introduit quelques mois plus tôt des politiques mises à jour concernant la divulgation responsable du contenu de l’IA, ainsi que des outils permettant de demander la suppression des deepfakes. Les utilisateurs devront divulguer lorsqu’ils créent un contenu modifié qui semble réaliste, le non-respect risquant des sanctions telles que la suppression du contenu, la suspension du Programme Partenaire YouTube ou d’autres mesures disciplinaires. Le changement mentionne également que la plate-forme supprimera certains contenus générés par l’IA s’ils décrivent une « violence réaliste », même s’ils sont étiquetés de manière appropriée.

Cette décision s’aligne sur les tendances plus larges du secteur en matière d’utilisation responsable du contenu généré par l’IA. En septembre 2023, TikTok a introduit un outil permettant aux créateurs d’étiqueter leur contenu généré par l’IA à la suite d’une mise à jour de ses directives exigeant la divulgation des médias synthétiques ou manipulés illustrant des scènes réalistes.

TikTok conserve le pouvoir de supprimer les images générées par l’IA qui ne sont pas correctement divulguées. Les mesures de YouTube et de TikTok reflètent la prise de conscience et les inquiétudes croissantes concernant l’utilisation abusive potentielle des technologies de l’IA, en particulier dans des contextes sensibles et potentiellement dangereux tels que la représentation réaliste de la violence ou l’exploitation d’événements tragiques. Meta a également mis à jour sa politique vers la fin de l’année dernière pour contrer les publicités deepfake lors des élections de 2024.

A lire également