Une étude américaine trouve un préjugé racial dans la reconnaissance faciale automatique
Les visages de couleur sont plus souvent erronément identifiés que les visages blancs par les systèmes AI. Voilà ce que confirme une étude effectuée par NIST, au cours de laquelle 189 algorithmes différents ont été testés.
Quel est le degré de précision avec lequel un logiciel de reconnaissance faciale identifie les personnes de couleurs de peau, âges et genres différents? Voilà ce qu’a examiné le National Institute of Standards and Technology (NIST). L’étude a passé en revue 189 algorithmes de 99 développeurs différents (dont Microsoft et Intel) qui, selon les chercheurs, représentent conjointement la majeure partie de l’industrie de reconnaissance faciale.
La couleur de la peau est apparue comme étant le principal facteur d’influence. Dans certains systèmes, la précision s’est avérée cent fois supérieure pour les blancs. Les chercheurs ont observé aussi que les visages asiatiques étaient mieux identifiés par des algorithmes conçus en Asie. L’étude n’a pas examiné si ce genre d’influence était la conséquence d’un manque de variation dans les ensembles de données avec lesquels les algorithmes avaient été formés ou si elle était due aux développeurs eux-mêmes, qui y introduisent leurs propres préjugés.
La reconnaissance faciale n’avait déjà pas trop bonne réputation, lorsqu’il s’agissait d’identifier des personnes à la couleur de peau sombre. La présente étude sort à un moment d’insatisfaction croissante à l’égard de la technologie aux Etats-Unis, où des esprits critiques préviennent qu’elle pourrait conduire à de la discrimination.
Le côté intéressant de cette étude, conçue pour mieux informer les décideurs et les développeurs de logiciels, c’est qu’elle établit une différence entre les faux positifs et les faux négatifs. A cause des faux positifs, un système n’identifie pas la cible, ce qui provoque surtout des désagréments (par exemple parce que vous aurez besoin d’un second essai pour déverrouiller votre smartphone). Et à cause des faux négatifs, la reconnaissance faciale pense à tort avoir identifié la cible, ce qui peut avoir beaucoup d’effets plus radicaux (comme par exemple une arrestation injuste). Le préjugé racial dans les faux positifs a été décelé systématiquement dans tous les algorithmes, alors que dans les faux négatifs, il n’était présent que dans certains algorithmes. Le nombre de faux positifs fut aussi supérieur pour les photos de femmes que pour les photos d’hommes, même si cet effet était moindre.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici