Désormais, l’IA prend toujours plus de décisions à la place de l’humain. Mais dans le même temps, la manière dont les algorithmes fondent leurs décisions est souvent encore floue, de sorte que l’on parle volontiers de boîtes noires. C’est pourquoi les scientifiques et les politiciens s’intéressent toujours à l’IA explicable qui doit rendre l’IA éthique et explicable.
Supposons que vous deviez demander un prêt hypothécaire pour l’achat d’une maison. L’habitation semble parfaitement correspondre à vos besoins et vos revenus sont suffisants pour assumer cet achat. Reste que vous recevez subitement une réponse négative de la banque. Pourquoi ? La banque elle-même ne le sait pas. Non parce que l’algorithme est secret ou que la banque veut vous épargner des soucis, mais simplement parce qu’elle ne sait pas ce que renferme l’algorithme.
Aujourd’hui, les algorithmes IA ont encore souvent cette caractéristique. Il s’agit en somme de boîtes noires dont on ne sait pas très bien ce qu’elles contiennent. Elles s’appuient sur toute une série de variables, comme vos revenus ou votre niveau d’endettement, pour évaluer le risque d’être un mauvais payeur. Mais la manière dont l’algorithme obtient ce résultat reste un mystère, ce qui peut soulever de nombreuses questions éthiques. Quid en effet si l’algorithme discrimine par exemple à tort des minorités ethniques ?
Face à cette situation, des chercheurs et décideurs s’intéressent toujours plus à l’IA explicable, un nouveau type de techniques statistiques ayant pour objectif d’expliquer les choix des algorithmes. Celles-ci ouvrent en somme la boîte noire pour rendre peut-être l’IA plus éthique.
Boîte noire, boîte blanche
” Prenez l’exemple de l’apprentissage profond, explique Bart Baesens, professeur à la KU Leuven et spécialiste des ‘big data’ et de l’analytique. Il s’agit d’un ensemble de techniques mathématiques qui permettent de générer des modèles complexes au départ de données. Or les techniques de ‘deep learning’ ne sont souvent pas explicables ou en tout cas très difficiles à expliquer. C’est ainsi que l’on peut utiliser l’apprentissage profond pour prendre des décisions de crédits, mais les chiffres qui en ressortent ne sont pas transparents et le mode de raisonnement n’est pas toujours bien compréhensible. ”
Les modèles IA doivent non seulement être performants sur le plan statistique, mais aussi être transparents.
Certes, des progrès importants ont d’ores et déjà été réalisés, puisque ce type de techniques se révèle très puissante sur le plan statistique, mais des risques apparaissent. ” Ces modèles sont très dangereux sous certains aspects. Songez à la modélisation de risques de crédit où les algorithmes peuvent reproduire des discriminations “, estime Baesens. C’est ainsi qu’un algorithme pourrait discriminer des personnes ayant un certain bagage ethnique en cas de demande de crédit, sans que le banque le sache. ” C’est pourquoi l’IA explicable fait l’objet d’autant de recherches. Les modèles IA doivent non seulement être performants sur le plan statistique, mais aussi être transparents. ”
Il existe différentes techniques permettant de rendre les algorithmes plus transparents. Certaines concernent des technologies de pointe statistiques complexes, d’autres s’appuient sur une base étonnamment simple. ” C’est ainsi qu’il est possible de prévoir des règles ‘si-alors’ basiques dans des formules faisant appel à des algorithmes, poursuit Baesens. Si le taux d’endettement d’une personne est par exemple supérieur à un pourcentage déterminé, le prêt lui sera refusé. Intégrer de telles règles dans l’algorithme garantit une plus grande transparence. ”
Union européenne
En outre, une telle approche présente des avantages éthiques. ” Un algorithme de type boîte noire peut facilement corréler certaines spécificités démographiques, comme le bagage social, avec des niveaux de criminalité par exemple “, ajoute Evgeni Aizenberg, chercheur à la TU Delft spécialisée en conception IA basée sur les droits de l’homme. Ceci est totalement contraire au principe d’innocence jusqu’à preuve du contraire et viole le droit des individus à se définir eux-mêmes puisque les données le font à leur place. ”
Par ailleurs, une IA explicable se révèle aussi nécessaire dans une pure perspective légale. ” Le RGPD permet au consommateur de remettre en question une décision automatisée, ajoute Aizenberg. Ainsi, si une demande de crédit est refusée, vous pouvez contester cette décision auprès de l’organisme de crédit. Or il faut d’abord comprendre la décision, ce qui est impossible avec certains modèles IA. ”
Il s’agit d’ailleurs de l’une des raisons pour lesquelles des acteurs politiques s’intéressent toujours davantage à l’IA explicable. Ainsi, le High-Level Expert Group on IA de l’Union européenne, un groupe d’experts consultants en politique IA pour l’Europe, a publié en avril dernier des directives pour une IA éthique. Et la notion d”explicable’ était l’une des conditions de base, même si le groupe reconnaît que ce n’est pas forcément toujours possible.
No free lunch
Car en dépit des avantages liés à de tels algorithmes explicables, la technique présente aussi un inconvénient majeur : elle affaiblit la puissance statistique de l’algorithme. En d’autres termes, un modèle explicable est moins performant pour prédire certains résultats qu’un algorithme de type boîte noire. ” En statistique, il existe un théorème du ‘no free lunch’, précise Baesens. Cela signifie que si l’on veut quelque chose, il faut pouvoir concéder autre chose. Les modèles d’apprentissage profond complexes sont particulièrement puissants et sont capables d’extraire des modèles complexes au départ de données. Mais dans le même temps, ils sont très difficiles à interpréter. Certes, il est possible de rendre ces modèles partiellement interprétables, mais dans ce cas, on perd une partie de la puissance statistique. Il s’agit d’un équilibre à trouver. Il faut choisir entre la puissance statistique pure et l’abandon d’une partie de cette puissance au profit de l’interprétabilité. ”
Cet équilibre constitue actuellement le défi majeur de l’IA explicable, de même que l’objet principal des recherches. ” Nous voulons minimiser au maximum la perte de puissance, note encore Baesens. Des techniques existent. Mais il faut pouvoir concéder quelque chose. A l’avenir, nous espérons pouvoir conserver toute la puissance de la boîte noire et l’associer à l’interprétabilité d’une boîte blanche. ”
Voilà d’ailleurs pourquoi l’IA explicable ne sera sans doute pas utile en toutes circonstances. Lors de procédures sensibles au niveau social, comme la justice ou les finances, l’explicabilité se révèle particulièrement importante. Mais pour un modèle de prévisions météo, c’est nettement moins nécessaire.
Participation
Quoi qu’il en soit, nos algorithmes se devront d’être toujours plus explicables à l’avenir. ” L’IA explicable est absolument nécessaire pour rendre l’IA éthique, affirme Aizenberg. Elle n’est pas en soi suffisante, mais représente une condition de base d’une IA fondée sur les valeurs humaines et les droits de l’homme. Elle est directement associée à la liberté, l’autonomie et la transparence. Cela étant, il existe évidemment d’autres éléments et questions, notamment l’égalité, le respect de la vie privée ou l’impact de l’IA sur l’emploi. ”
De même, différents groupes doivent être plus impliqués dans la conception des algorithmes, estime Aizenberg. ” La participation est cruciale dans la mise au point d’une IA explicable. Nous devons impliquer d’emblée l’ensemble des acteurs, qu’il s’agisse de personnes qui subissent les conséquences de l’IA ou des ingénieurs et des législateurs. Car l’explicabilité dépendra du contexte. Ainsi, un algorithme traitant de la criminalité intégrera sans doute d’autres critères d’explicabilité qu’un algorithme relatif aux soins de santé. ”
” L’IA explicable n’est pas la seule réponse à une IA non éthique, conclut Baesens. Mais elle aidera à identifier les problèmes. Il s’agit d’un outil permettant d’identifier précisément les problèmes éthiques. ”
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici