Twitter lance la lutte contre les images générées par l’IA avec le Notes de la communauté pour les images. Cette fonctionnalité est actuellement en phase de test et aidera les utilisateurs de Twitter à identifier les images générées par l’IA. Au cours des derniers mois, de nombreux utilisateurs ont craqué pour ces images issues de modèles d’IA.
Cette fonctionnalité n’est qu’un des outils de l’arsenal de Twitter qu’elle utilisera pour lutter contre les médias trompeurs. Certains mauvais acteurs utilisant la plate-forme Twitter atteignent des millions d’utilisateurs avec des images générées par l’IA, affirmant qu’elles sont la preuve d’activités qui n’ont jamais eu lieu. Le but derrière cet effort est d’induire les gens en erreur, et cela peut être préjudiciable à la communauté mondiale.
Une fois que ces images arrivent sur Twitter via des messages, il est facile pour les utilisateurs peu méfiants de les partager avec d’autres. Cela aide les informations trompeuses à se répandre comme une traînée de poudre, créant ainsi de fausses idées sur un individu ou un groupe. Notes de la communauté Twitter for images est maintenant là pour lutter contre la diffusion de ces images à des millions de personnes utilisant la plate-forme de médias sociaux.
Twitter vise à freiner la propagation des images générées par l’IA avec la fonctionnalité Community Notes for Images
Le Notes de la communauté Twitter La page a récemment publié un article qui traite des images générées par l’IA. Ces types d’images sont de plus en plus répandus sur la plate-forme de médias sociaux et ont tendance à induire en erreur de nombreux utilisateurs. Twitter en a pris note et donne désormais à un groupe d’utilisateurs la possibilité de signaler ce type de messages pour en informer les autres utilisateurs.
À l’heure actuelle, il est facile pour un utilisateur Twitter mal intentionné d’utiliser n’importe quel modèle d’IA pour générer une photo de n’importe quoi. Tout ce qu’ils ont à faire est de décrire à quoi la photo doit ressembler et quels éléments elle doit contenir. Le modèle d’IA se met alors au travail et produit une image presque réaliste basée sur les spécifications des utilisateurs.
Armé de cette image, l’utilisateur mal intentionné peut ensuite publier l’image sur Twitter avec une description trompeuse. D’autres utilisateurs de Twitter qui voient ce message pourraient croire la description trompeuse et retweeter ou aimer le message, le diffusant ainsi à des millions de personnes. Désormais, Twitter offre aux contributeurs de leur plate-forme la possibilité de signaler ces images et vidéos trompeuses générées par l’IA.
Avec le Notes de la communauté Twitter pour les images, les contributeurs avec des notes élevées pourront signaler les images générées par l’IA. Actuellement, cette fonctionnalité est en phase de test et permet aux contributeurs de signaler ces images aux autres utilisateurs. Pour signaler ces images, les contributeurs avec des notes élevées ajouteront des descriptions à l’image qui seraient visibles par les autres utilisateurs de Twitter.
Une fois les descriptions définies, l’algorithme Twitter fait correspondre tous les messages de cette image sur la plate-forme avec la description. Si un autre utilisateur publie à nouveau l’image, elle apparaîtra avec la description, la signalant comme une image générée par l’IA. Cependant, cette fonctionnalité doit bien fonctionner lors des tests avant de devenir disponible au public.