
Selon une étude de la VUB, l’IA peut amplifier les inégalités
L’intelligence artificielle n’est pas neutre, mais elle reflète et renforce les inégalités existantes dans la société. C’est là le résultat d’une étude effectuée à la VUB.
L’intelligence artificielle est souvent considérée comme un puissant outil qui améliore notre vie: des smartphones aux algorithmes de recrutement. Mais il existe par ailleurs des inquiétudes concernant les préjugés (‘bias’ en jargon) dans les systèmes. Les chercheurs de la VUB mettent désormais en évidence un problème plus profond encore: le biais n’est pas seulement un défaut technique, mais il est influencé aussi par des dynamiques du pouvoir social.
Voici comment cela se manifeste: l’IA est formée sur la base de données historiques, qui sont déjà façonnées par des préjugés humains. Les systèmes reprennent donc cette discrimination et la propagent encore plus. En d’autres termes, l’IA ne crée pas une inégalité, mais la reproduit et la renforce.
Hommes et migrants ciblés
‘Notre étude a mis en évidence des exemples pertinents où l’IA a renforcé des préjugés existants’, explique la professeure Tuba Bircan du Brussels Institute for Social and Population Studies (BRISPO). ‘Un exemple singulier est l’outil de recrutement d’Amazon piloté par l’IA, qui a favorisé des candidats masculins, renforçant ainsi l’inégalité des genres sur le marché du travail.’
Bircan pointe également du doigt des systèmes d’IA du gouvernement pour la détection de fraudes, qui accusent à tort des familles, en particulier des migrants, ce qui entraîne de graves conséquences pour les personnes impliquées.
‘Ces exemples montrent que plutôt que d’éliminer les préjugés, l’IA peut renforcer la discrimination en l’absence de contrôle et de transparence’, déclare Bircan. ‘Sans responsabilité et transparence, l’IA risque de devenir un outil qui renforce les hiérarchies sociales existantes plutôt que de les remettre en question.’
L’inclusion prioritaire
L’étude souligne que la gestion de l’IA doit s’étendre au-delà des entreprises technologiques et des développeurs. Puisque tout dépend des données générées par les utilisateurs, la transparence et l’inclusivité doivent être prioritaires dans la conception de la technologie et de sa régulation.
Malgré les défis posés, l’étude offre également de l’espoir. ‘Plutôt que d’accepter les lacunes de l’IA comme inévitables, notre travail plaide en faveur de mesures politiques et de cadres proactifs qui garantissent que l’IA favorise la justice sociale plutôt que de la saper’, explique Bircan. ‘En ancrant l’équité et la responsabilité dans l’IA dès le départ, il est possible d’exploiter son potentiel pour un changement positif, plutôt que de lui permettre de contribuer aux inégalités systémiques.’
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici