Une proposition de loi américaine entend interdire les algorithmes discriminatoires

Els Bellens

Aux Etats-Unis, une proposition de loi veut s’en prendre aux algorithmes partiaux, avant qu’ils ne soient déployés. Elle contraindrait les entreprises à tester leurs systèmes d’apprentissage machine sur le plan de la discrimination.

Des politiciens américains ont déposé une proposition de loi qui obligerait les grandes entreprises à contrôler leurs systèmes d’apprentissage machine, avant qu’ils ne soient déployés. Il s’agit par exemple d’algorithmes en matière de reconnaissance faciale ou de systèmes d’envoi de publicités sur mesure. Ces algorithmes doivent d’abord être testés sur le plan de la discrimination. Cette proposition de loi a pour but d’éviter que du parti pris ou de la partialité ne s’introduise dans les systèmes.

Si la proposition de loi est approuvée, la Federal Trade Commission, à savoir le contrôleur américain à la consommation, devra élaborer des règles d’évaluation des systèmes automatisés ‘sensibles’. Les entreprises devront alors vérifier en profondeur si leurs algorithmes ne sont pas discriminatoires et/ou s’ils ne risqueraient pas de constituer un danger potentiel pour le respect de la vie privée ou la sécurité des consommateurs.

La proposition de loi est une réaction à l’angoisse (parfois fondée) que suscite l’intelligence artificielle conçue par apprentissage machine ou apprentissage profond, et qui pourrait impacter la vie des gens. Des exemples d’algorithmes partiaux existent déjà en suffisance: cela va des robots de traduction sexistes, en passant par les suggestions de recherche antisémites, jusqu’à la reconnaissance faciale éprouvant des difficultés avec les couleurs de peau sombres. A présent que ces systèmes sont toujours plus souvent utilisés pour des processus potentiellement sensibles, comme le pourvoi de postes d’emploi ou de surveillance, il semble d’autant plus important que les algorithmes soient neutres.

Cette proposition de loi ciblerait les entreprises enregistrant des rentrées supérieures à 50 millions de dollars par an et gérant les données d’au moins un million de personnes ou d’appareils. Ces entreprises seraient désormais censées évaluer leurs algorithmes pour y détecter des erreurs qui pourraient impacter les droits légaux des consommateurs. Dans la pratique, cela concerne une majorité de l’économie technologique actuelle. Les opposants à la proposition de loi affirment, eux, qu’elle restreindrait l’efficience possible de ce genre d’applications.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire