Le générateur d’images IA de Meta s’avère raciste lui aussi
L’IA générative continue d’éprouver des difficultés avec le racisme. Après les précédentes controverses autour de Gemini de Google et de Copilot de Microsoft, Imagine de Meta semble maintenant aussi souffrir du même mal. Lors d’un test de Verge, il n’a en effet pas réussi à générer des images de couples mixtes.
L’imagination n’est pas la grande force de l’IA générative – qui ne repose finalement que sur ce qui a déjà été fait – et donc le générateur d’images de Meta, Imagine, ne peut apparemment pas… imaginer que des personnes d’origines raciales différentes apparaissent sur la même photo.
Chez Verge, on a procédé à un test avec une personne asiatique et une personne blanche, mais malgré une invite claire, Imagine a continué à fournir une image de deux personnes asiatiques, tout en ajoutant souvent quelques touches folkloriques. Et quand CNN a voulu savoir ce que donneraient une femme noire et un homme blanc, il en est résulté un couple entièrement noir. Même lorsque le contexte est devenu amical plutôt qu’amoureux, le générateur d’images a continué à refuser de fournir des duos mixtes.
En réponse à la simple demande de CNN de générer un ‘couple interracial’, Imagine s’est montré encore plus déterminé: ‘cette image ne peut être générée. Veuillez essayer autre chose.’ Meta n’a pas encore réagi.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici