Nathalie Smuha
Soyons plus intelligents quand il est question d’intelligence Artificielle
L’IA serait sexiste, discriminatoire et volerait des emplois. La réalité est plus nuancée, selon Nathalie Smuha, chercheuse à la KULeuven. Pour elle, de telles conséquences ne sauraient être attribuées à la technologie de l’IA, mais incomberaient plutôt aux développeurs et utilisateurs humains. Parler de l’IA d’une façon plus précise est donc essentiel.
Nathalie Smuha est chercheuse sur les questions éthiques et les implications juridiques de l’Intelligence Artificielle (IA) à la KULeuven, mandataire FWO et observatrice au sein du groupe d’experts européen dans le domaine de l’IA.
L’IA est sexiste. L’IA discrimine. Ou encore L’IA vole nos emplois. Voilà quelques exemples de titres d’articles consacrés à l’Intelligence Artificielle (IA) récemment publiés, que nous avons lus avec avidité. Vu l’omniprésence toujours croissante de l’IA dans notre vie, nous serons amenés à en entendre toujours plus parler dans les années à venir. Et c’est bien nécessaire, car les médias sont la source primaire d’informations sur cette technologie à laquelle nous serons sans cesse davantage confrontés et dont nous sentirons de plus en plus les effets – tant positifs que négatifs.
Soyons plus intelligents quand il est question d’intelligence Artificielle
Ces dernières années, les médias ont contribué à une meilleure compréhension des capacités et des limites de l’IA. C’est ainsi que des journalistes (conjointement avec des ONG, des chercheurs et des employés engagés) ont joué un rôle éminent pour exposer les problèmes éthiques posés par certaines applications de l’IA. Nous pensons ici aux protestations internes chez Google à propos du développement de drones d’IA militaires, à l’étude “ProPublica” qui a démontré que le système “Compas” utilisé aux États-Unis (en vue d’évaluer le risque de récidive criminelle) a engendré des préjugés discriminatoires, ou encore aux critiques à l’encontre du système “SyRI” qui détectait la fraude aux Pays-Bas et ciblait certains groupes de manière disproportionnée.
Les médias ont aussi fait en sorte qu’en plus des stratégies destinées à accroitre les investissements dans l’IA, des stratégies afin d’en limiter les risques ont aussi vu le jour. C’est ainsi que la Commission européenne a créé en juin 2018 un groupe d’experts de haut niveau en vue d’élaborer des lignes directrices en matière d’éthique pour l’IA au niveau européen. Ces lignes directrices ont également représenté une importante source d’inspiration pour le Livre blanc que la Commission a publié en février dernier et qui contient l’ébauche d’une nouvelle réglementation pour les applications à risque de l’IA.
L’importante tâche consistant à informer le grand public sur cette technologie toujours plus invasive, afin que puisse être mené un débat sociétal, est cependant loin d’être terminée. Dans ce contexte, on ne peut pas sous-estimer la manière dont on parle de l’IA. C’est ainsi que le groupe européen d’experts a par exemple choisi d’utiliser le terme “systèmes d’IA” plutôt que simplement “IA”. Il ne s’agit finalement là que d’une catégorie de systèmes IT développés par l’homme. Cette nuance est souvent perdue de vue en parlant de l’IA en tant qu’entité en soi, ce qui donnerait erronément l’impression que l’IA a une volonté propre, indépendamment des développeurs humains.
Est-ce chicaner ? Non. Mais, il y a trop d’enjeux à laisser simplement s’installer un langage inapproprié compte tenu des conséquences.
Un langage imprécis ne peut qu’engendrer de la confusion sur les capacités des applications actuelles de l’IA.
Aucun système d’IA existant actuellement ne peut “comprendre” le contenu des données qu’il traite. Il ne contient aucune sémantique, seulement de la syntaxe.
Les revendications selon lesquelles l’IA peut “lire” ou “penser” sont par conséquent trompeuses, car dans le langage familier, cela induit une présomption de compréhension, ce qui n’est pas le cas. L’IA ne peut pas non plus avoir des intentions afin d’être discriminatoire ou sexiste. Les systèmes d’IA ne comprennent du reste pas ce que signifie le terme “sexisme”. Ils ne comprennent pas la différence entre “femme” et “homme”, sauf le fait que ces mots contiennent un nombre différent de “un” et de “zéro”.
Un système d’IA formé pour diagnostiquer un certain type de cancer, ne peut en même temps identifier un refroidissement.
Les systèmes d’IA peuvent aujourd’hui déjà exécuter certaines tâches de manière plus précise que l’homme, mais cela ne concerne que des travaux strictement définis dans un contexte délimité. Un système d’IA formé pour diagnostiquer un certain type de cancer, ne peut en même temps identifier un refroidissement, et encore moins comprendre ce qu’implique le concept “maladie” ou son impact sur une personne.
Un système d’IA qui recommande un film sur Netflix, ne peut mener une conversation sur le temps ou servir une tasse de thé. La “General AI” – une machine capable d’intelligence générale – n’est pour l’instant que de la science-fiction. Et comme la génération actuelle de techniques d’IA se heurte à des limites, la possibilité que ce type d’IA se manifeste bientôt, est quasiment exclue.
Mais c’est bien l’image de l’IA créée par la science-fiction qui fait en sorte que notre fantaisie se déchaîne quand nous lisons que “Facebook a dû stopper une application d’IA, parce qu’elle avait commencé à inventer son propre langage secret“. Cela n’est pas une fausse information, mais une information trompeuse. En réalité, il s’agissait d’un système d’IA formé pour négocier. Il était alimenté par les données lexicales de précédentes négociations et par les scores attribués à chaque technique de négociation. Sur base de ces données, il était capable de créer ses propres techniques de négociation. Le système se mit toutefois à produire un méli-mélo de mots qui ne formaient pas de phrases correctes ni sur le plan grammatical ni sur le plan sémantique, mais qui obtenaient néanmoins des scores élevés – ce qui fait que les développeurs durent en revisiter les paramètres. Voilà qui réduit évidemment le côté sensationnel de la chose.
Les systèmes d’IA n’ont aucune liberté de choix, aucune prise de conscience ou autre qualité permettant de donner de la valeur à la revendication “inventer un langage secret” (et tout l’imaginaire qui va avec). Mais trop peu de gens comprennent comment ces systèmes fonctionnent, ce qui fait que nous n’identifions pas toujours le langage symbolique. Pensons par exemple à la façon différente dont nous interprétons la phrase “cette imprimante est diabolique” en comparaison avec “cet IA est diabolique”.
Cette nuance est-elle vraiment si importante ? Oui, sinon on risque d’alimenter la peur et la confusion chez le lecteur moyen.
Ce langage n’accorde pas assez d’attention à l’humain derrière la machine
Parler ainsi de l’IA donne l’impression que cette technologie nous dépasse et échappe au contrôle humain. Dès que nous lisons que “l’IA discrimine” ou “vole notre emploi”, nous risquons d’oublier l’humain derrière la machine.
Ce sont cependant des humains qui choisissent de développer ce genre de systèmes et de les utiliser. Ce sont des humains qui choisissent dans quelles conditions ces systèmes opèrent et quelles garanties sont prévues afin que les systèmes ne créent pas de discrimination. Ce sont encore des humains qui choisissent d’utiliser ou non des systèmes d’IA pour remplacer – et pas pour aider – d’autres humains. Un système d’IA ne peut de lui-même venir solliciter votre emploi. Il est par conséquent grand temps de prendre des mesures stratégiques qui assurent la responsabilité humaine pour ces systèmes. Un langage plus nuancé peut contribuer à stimuler cela.
Tant que nous ignorerons l’humain, nous ne considérerons pas les préjugés dans les systèmes d’IA pour ce qu’ils sont : une reproduction des préjugés dans notre société.
Tant que nous n’accorderons pas d’attention au rôle des développeurs de l’IA, nous ne favoriserons pas la prise de conscience sur les implications éthiques de leurs actions (et nous ne conclurons pas que l’éthique devrait être enseignée obligatoirement dans toutes les formations sur l’IA). Tant que nous négligerons l’humain derrière la machine, nous n’imposerons pas la prise de mesures sécuritaires à ceux qui sont dans la meilleure position pour les prendre. Tant que nous ignorerons l’humain, nous ne considérerons pas non plus les préjugés dans les systèmes d’IA pour ce qu’ils sont – une pure reproduction des préjugés dans notre société – et nous n’entreprendrons aucune action pour aborder ce problème sous-jacent.
Il ne faut évidemment pas être à ce point naïf pour penser qu’un langage nuancé résoudra tout, mais cela ne fera pas de tort. Il y a un besoin urgent d’un débat sociétal sur le rôle que nous voulons attribuer aux systèmes d’IA dans notre société. Ce débat ne peut toutefois être mené qu’en étant bien informé et en ayant conscience que c’est l’humain qui est in fine responsable.
Soyons par conséquent plus intelligents lorsqu’il est question d’Intelligence Artificielle.
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici