Une chercheuse en informatique de la VUB invente une méthode anti-préjugé dans l’IA
Sous le nom de LUCID, Carmen Mazijn, informaticienne à la VUB, a développé une nouvelle technique pour déterminer si les systèmes d’intelligence artificielle utilisent une logique acceptable pour exprimer leurs réflexions. Il est important de lutter contre les préjugés (‘bias’) pour promouvoir l’efficacité de l’IA dans la vie quotidienne.
Avant que l’intelligence artificielle puisse prochainement assumer certaines de nos tâches, quelques obstacles cruciaux doivent encore être surmontés. L’un d’entre eux est la réduction des préjugés: un modèle d’intelligence artificielle peut être ‘biaisé’, parce qu’il est formé à partir de données qui ne sont pas représentatives de la réalité. ‘Un service de police peut utiliser l’IA pour déterminer dans quelles rues il convient de déployer davantage de patrouilles’, cite en exemple Carmen Mazijn, chercheuse en informatique à la VUB: ‘Le déploiement de plus de patrouilles permet d’identifier davantage de délits. Lorsque ces données sont réintroduites dans le système d’IA, tout préjugé présent ou non est amplifié, ce qui génère un effet auto-réalisateur.’
Black Box Revelation
Nous ne savons pas toujours exactement comment fonctionnent les algorithmes et nous ne sommes donc pas toujours sûrs que les choix qu’ils font sont justes, selon Mazijn dans sa thèse de doctorat Black Box Revelation: Interdgraduate Perspectives on Bias in AI. C’est pourquoi elle a imaginé une technique de détection, baptisée LUCID, pour lutter contre les traitements biaisés des données. Elle a principalement travaillé avec des algorithmes décisionnels: des systèmes d’IA qui soutiennent les décisions de personnes, voire remplacent complètement ces dernières dans le processus de prise de décision. En comprenant mieux ce qui se cache derrière un tel système d’intelligence artificielle, il est possible de contrer le risque de décisions injustes ou discriminatoires. L’idée sous-jacente est que la méthode soit désormais utilisée pour savoir si un système peut également être employé dans le monde réel, en dehors de… gadgets tels que ChatGPT.
Décryptage d’algorithmes
Car même si le résultat semble correct, les motivations de l’IA pour arriver à cette conclusion n’étaient pas nécessairement justes, selon Mazijn. C’est ainsi que lors d’une procédure de sélection, un modèle d’IA peut faire des choix apparemment égaux entre les genres, mais lorsque l’algorithme est examiné de près, ces choix peuvent être motivés de manière complètement différente pour les hommes et les femmes. ‘L’algorithme peut parfois prendre des décisions apparemment correctes, mais pas toujours pour de bonnes raisons’, explique Mazijn. ‘Pour savoir avec certitude si un système d’IA présente un certain biais ou effectue réellement des choix socialement acceptables, il convient de décrypter le système et les algorithmes.’
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici