Le générateur d'images AI de Meta ne parvient pas à générer des images précises pour des invites assez simples. Dans un nouveau rapport, The Verge a mentionné que le générateur d'images IA de Meta générait de manière inexacte des images d'un homme asiatique avec une femme blanche, même lorsque les invites étaient modifiées plusieurs fois.

Le générateur d'IA de Meta échoue à plusieurs reprises à créer des images précises d'un homme et d'une femme asiatiques

Selon les conclusions du rapport, l'IA de Meta était systématiquement incapable de créer des images précises, ce qui suggérait un parti pris à l'égard des personnes de certaines races. L'outil générateur d'images IA d'Instagram a créé des images inexactes pour des invites simples telles que Homme asiatique et ami caucasien ou Homme asiatique et femme blanche. Cela s'est produit plusieurs fois, bien que l'invite mentionne explicitement la création d'une image particulière.

En plus, The Verge mentionne que parmi tous les essais, le générateur d'images Meta AI a réussi à créer une seule image avec l'invite « Femme asiatique avec mari caucasien. » Cependant, l'image n'était pas aussi précise puisque l'image générée par l'IA présentait un homme plus âgé et une jeune femme à la peau claire, ce qui indique un parti pris.

Seule une image générée par l’IA sur dix était exacte

Engadget a également signalé la même chose et a remarqué qu'il n'y avait qu'une seule image sur dix qui reflétait l'invite. Les neuf autres images générées par l’IA présentaient neuf visages blancs. Il convient de noter que le générateur d'images IA de Meta ajoutait souvent des robes culturellement spécifiques, même si l'invite écrite ne le mentionnait pas.

On ne sait toujours pas pourquoi l’image IA de Meta ne parvient pas à reproduire ce type d’invites. Cependant, ce n’est pas la première fois que le générateur d’images IA de Meta fait l’objet d’une controverse. L'année dernière, son outil de génération d'autocollants IA a fait face à des réactions négatives après que des personnes aient créé des images NSFW et des personnages Nintendo avec des armes à feu.

Cependant, ce n’est pas la première fois qu’un outil d’IA ne parvient pas à créer des images basées sur la race et le sexe. En février, Google a suspendu l'outil générateur d'images de Gemini AI après des réactions négatives concernant des images créées de manière inexacte pour le même sujet.

Meta n’a fourni aucune explication sur les images IA générées de manière inexacte pour l’instant. Mais, par le passé, il a insisté sur le fait que les outils d’IA étaient en phase bêta et pourraient commettre des erreurs.

A lire également