Robots racistes: les préjugés humains dans l’intelligence artificielle
L’intelligence artificielle prélève dans des textes des préjugés racistes et sexistes profondément enracinés, selon une nouvelle étude.
Même les modèles AI qui n’étaient exposés qu’à des textes ‘neutres’ tels ceux de Wikipedia ou des articles d’actualité en ont prélevé des préjugés humains.
Dans cette étude publiée dans la revue scientifique Science, des chercheurs ont expérimenté un modèle très fréquent d’intelligence artificielle baptisé ‘the Global Vectors for Word representation’ (GloVe). Il en est ressorti que le système a affiché toutes sortes de partis pris humains. De textes figurant sur internet, il a ainsi entre autres appris à associer davantage de noms féminins à des termes liés à la famille ou à considérer plus négativement les noms afro-américains que les noms américains-européens.
“Nous avons été stupéfaits de découvrir tous les résultats intégrés à ces modèles”, explique Aylin Caliskan, l’un des chercheurs. “Même les modèles AI qui n’étaient exposés qu’à des textes ‘neutres’ tels ceux de Wikipedia ou des articles d’actualité en ont prélevé des préjugés humains.”
L’équipe en est arrivée à cette conclusion en appliquant le même test psychologique sur GloVe que sur des humains. Ce ‘test d’association implicite’ exploite les temps de réaction pour découvrir la charge affective que des personnes attribuent à certains mots. On distingue deux catégories à l’écran. Avec les boutons de gauche ou de droite, il s’agit d’indiquer à quelle catégorie un terme déterminé appartient. Ce faisant, les termes doivent être rapidement reliés les uns aux autres. Il ne faut ainsi pas s’étonner que les termes ‘fleur’ et ‘beauté’ par exemple soient associés plus rapidement que ‘fleur’ et ‘puanteur’. Le test peut être effectué en ligne.
Il peut également être utilisé pour exposer les associations inconscientes entre des groupes de population spécifiques. C’est ainsi que les termes ‘féminin’ et ‘femme’ sont plus rapidement associés à des professions en sciences morales, alors que ‘masculin’ et ‘homme’ sont davantage liés à l’ingénierie et aux mathématiques.
Il n’y a pas de quoi s’étonner dans la mesure où l’intelligence artificielle analyse le monde tel qu’il existe et qui est plein de préjugés.
Le même test a été adapté aux ordinateurs par les chercheurs. Il en est ressorti que les associations effectuées par l’intelligence artificielle entre certains termes sont aussi fortes que chez les humains. Il n’y a pas de quoi s’étonner dans la mesure où l’intelligence artificielle analyse le monde tel qu’il existe et qui est plein de préjugés.
C’est aussi ce qu’a conclu Microsoft, lorsque l’année dernière, elle appliqua son chatbot d’intelligence artificielle Tay à Twitter. L’objectif pour Microsoft était que Tay noue des conversations avec des utilisateurs de Twitter pour apprendre des choses. Or les utilisateurs de Twitter comprirent très rapidement comment en abuser. Dans les 24 heures, Tay découvrit ainsi l’holocauste, effectua des commentaires racistes et déclara que l’ancien président George W. Bush était à l’origine des attentats du 11 septembre.
Les algorithmes ne sont pas capables de contrer sciemment les préjugés, contrairement à l’homme.
Tay est un exemple ludique de la manière dont l’intelligence artificielle en auto-apprentissage peut être abusée. La crainte existe cependant que les inégalités sociales existantes et les préjugés se renforcent encore de diverses manières imprévisibles au fur et à mesure que des pans plus importants de notre vie quotidienne seront soumis à l’automatisation. Les algorithmes ne sont pas capables de contrer sciemment les préjugés, contrairement à l’homme. L’équipe de chercheurs lance également cette mise en garde: “Si ce genre d’intelligence machine est utilisée par exemple dans le screening des CV, cela peut générer des résultats partiaux… La prudence est donc de mise, lorsqu’on utilise l’intelligence artificielle non gérée dans des systèmes de prise de décisions.”
Et on ne sait clairement pas comment résoudre ce problème dans l’immédiat car si on adapte l’algorithme en vue de contrer la partialité, il sera moins efficace. Dissimuler des informations ne fonctionnera probablement pas non plus. Même si on ‘cache’ par exemple le sexe d’une personne, l’algorithme sera encore et toujours à même de le déterminer sur base d’autres corrélations.
D’aucuns pensent que quoi qu’il arrive, des humains doivent toujours être impliqués, afin d’intervenir en cas de problème. Le code de programmation doit en outre être transparent, afin qu’on puisse comprendre comment l’intelligence artificielle en est arrivée à un résultat spécifique. En tout cas, il est important que la société assume ses responsabilités et reste consciente des écueils potentiels générés par cette technologie.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici