L’année des deepfakes approche à grands pas alors que certaines des plus grandes démocraties du monde se préparent aux élections. Les États-Unis, le Royaume-Uni et l’Inde font partie des pays qui organiseront des élections générales l’année prochaine. Meta a adopté une approche proactive, prévoyant le rôle de l’IA et des deepfakes dans la propagation de la désinformation. Dans une déclaration récente, Meta a annoncé que tous les annonceurs doivent désormais « divulguer lorsqu’ils créent ou modifient numériquement une publicité à caractère politique ou social dans certains cas ». Cette nouvelle politique vise à aider les utilisateurs à « comprendre quand une publicité concernant un problème social, une élection ou une politique sur Facebook ou Instagram a été créée ou modifiée numériquement ».

Les deepfakes sont un type de manipulation numérique sophistiquée. Ces vidéos ou enregistrements audio hyperréalistes générés par l’IA peuvent remplacer l’image d’une personne par une autre. Dans le contexte de la publicité politique, les deepfakes représentent une menace importante. Ils ont le pouvoir de saper le discours politique en fabriquant des images, des discours persuasifs ou des déclarations qui propagent de la désinformation et trompent le public.

La désinformation est depuis longtemps un problème important sur les réseaux sociaux. Nous en avons tous été victimes au moins une fois. L’évolution des deepfakes, y compris les modifications vidéo et les images générées par l’IA, a atteint un point où distinguer l’authenticité sans contexte approprié devient assez difficile. La décision de Meta anticipe et s’attaque à la probabilité que des contenus trompeurs ou des vidéos deepfakes deviennent viraux à l’approche des prochaines élections.

À compter de janvier, la nouvelle politique mondiale de Meta oblige les annonceurs diffusant des publicités avec des médias modifiés numériquement à divulguer de manière transparente les modifications.

La politique comprend des scénarios tels que la représentation d’une personne réelle prononçant des mots qu’elle n’a jamais prononcés, la mise en scène d’un individu réaliste qui n’existe pas ou la représentation d’un événement réaliste qui ne s’est jamais produit. Pour être en violation de la politique, une modification numérique doit contribuer de manière significative au message global. Par exemple, le simple recadrage d’une petite image ne violerait pas les nouvelles directives.

Meta a souligné son engagement à ajouter des informations aux publicités lorsque des modifications numériques ou des deepfakes sont divulguées, bien que les détails ne soient pas fournis. Les annonceurs qui ne divulguent pas les médias modifiés entraîneront des « sanctions contre l’annonceur ». Meta se réserve le droit de supprimer le contenu violant ces politiques. Les politiques antérieures de Meta concernaient les deepfakes et les modifications numériques. Ces nouveaux changements représentent une avancée significative dans leur engagement à lutter contre les contenus trompeurs.

Il est intéressant de noter que Google a adopté une position similaire en abordant l’IA dans les publicités. De plus, X (Twitter) a mis en place une fonctionnalité Community Notes pour lutter contre la désinformation et les médias altérés. TikTok opte pour une voie plus sûre en interdisant purement et simplement toute forme de publicité politique. Cette réponse collective de l’industrie reflète une menace croissante de désinformation au cours d’une année électorale.

A lire également