Les recherches de Watson se concentrent surtout sur l'IA sociale et sécurisée. Elle travaille notamment pour des organisations qui définissent des standards et des règlementations relatifs aux conflits et au comportements futurs en IA, et notamment l'IEEE et ethiscnet.org. Par ailleurs, elle conseille différents organismes universitaires, dont The Future Society à l'université de Harvard.
...

Les recherches de Watson se concentrent surtout sur l'IA sociale et sécurisée. Elle travaille notamment pour des organisations qui définissent des standards et des règlementations relatifs aux conflits et au comportements futurs en IA, et notamment l'IEEE et ethiscnet.org. Par ailleurs, elle conseille différents organismes universitaires, dont The Future Society à l'université de Harvard. Nous sommes désormais confrontés à différents exemples de déviances dans l'intelligence artificielle, qu'il s'agisse de biais ou de préjugés qui minent la confiance dans la technologie. Ce que vous proposez est exactement l'inverse, à savoir faire confiance en l'IA. nell watson: Je suis raisonnablement optimiste. Je pense que nous en sommes arrivés à une situation comparable à celle de l'internet en 1997. A l'époque, tout le monde entrevoyait les énormes possibilités du Net et il était clair que cette nouvelle technologie bouleverserait l'ensemble de notre économie et de nos modes de vie. Or à ce moment-là, la sécurité n'existait pas. Nous ne disposions pas des outils nécessaires pour verrouiller un navigateur web et naviguer ainsi en toute sécurité, nous n'avions aucun service fiable comme Paypal pour payer en ligne en toute convivialité. Ces limites de la confiance, qui empêchaient de savoir avec qui vous traitiez, induisaient un frein au déploiement de la technologie internet. Et certainement au niveau d'applications critiques comme la santé ou la banque. Mais nous sommes parvenus à résoudre ces problèmes et je pense que nous en serons aussi capables aujourd'hui. L'IA se trouve désormais dans une situation comparable. Nous avons énormément de possibilités et nous savons que notre économies et nos vies vont être bouleversées. Et les choses vont encore évoluer, mais pour en profiter, nous devons veiller à établir de la confiance. Il s'agit d'une barrière que nous devons franchir. Mais nous sommes à un moment où nous sommes en train de résoudre ces problèmes, où nous comprenons ce qu'il faut faire et comment le faire. Comment établir une telle confiance?watson: La confiance se fonde sur trois piliers majeurs. Tout d'abord, la transparence: comprendre le fonctionnement du système. A cet égard, l'explicabilité doit faire partie du système: il faut pouvoir expliquer en mots simples comment agit un algorithme. Ensuite, la justification: comprendre qui est propriétaire du système et le but recherché. Enfin, le biais: éviter qu'un système ne soit préjudiciable à telle ou telle personne. Dans le même temps, nous désirons que les machines reconnaissent et respectent les différences entre individus. Vous n'aurez pas un système neutre si vous partez par exemple du principe que tous les hommes ont la même taille. Développer un système sans préjugé est tout un art. Il faut être très prudent lors de la sélection des critères que l'on veut prendre en compte et exclure. C'est ainsi que nous planchons sur une certification visant à concevoir une sorte de score de crédit pour l'IA qui permettrait d'évaluer le niveau de fiabilité de cette IA. Nous alimentons le système avec beaucoup de feedback de clients, voir s'ils ont rencontré quelque chose de bizarre avec cette IA ou plutôt s'ils sont enthousiastes face au projet. Ou si le produit connaît leurs besoins. Dans de nombreux pays, on trouve sur la porte des restaurants une affiche indiquant la qualité de l'hygiène des cuisines, ce qui permet au client d'avoir confiance dans le restaurant et de s'y sentir à l'aise. Nous voulons proposer quelque chose de similaire pour l'intelligence artificielle. Comment met-on en place ce type de certification?watson: Nous travaillons pour ce faire avec l'IEEE. Il s'agit d'une organisation qui a déjà une longue histoire et qui définit normalement des standards pour les composants électriques. Récemment, nous avons décelé un besoin de travailler également sur les systèmes autonomes ainsi que sur la sécurité et la fiabilité de tels systèmes. Les travaux que nous menons ne se concentrent pas uniquement sur la technologie, mais aussi sur l'organisation. L'organisation qui propose l'IA est-elle transparente? Certaines entreprises sont réputées pour leur extrême discrétion, d'où la difficulté de savoir comment l'IA a été développée. Du coup, il se révèle difficile de trouver des failles. Nous analysons dès lors les moteurs et les freins qui impactent l'IA au sein d'une organisation. Au niveau de l'apprentissage profond, la technologie reste encore souvent une boîte noire. Comment dès lors en arriver à cette transparence dans la technologie?watson: Il existe des technologies permettant d'analyser l'IA et les réseaux neuronaux afin de comprendre leur mode de fonctionnement. Mais les réseaux neuronaux sont plutôt arbitraires. On peut les qualifier de stochastiques: une même entrée ne donne pas forcément la même sortie. Même les personnes qui ont développé ou construit ces réseaux ne comprennent pas toujours comment ils fonctionnent et sur quels critères ils se basent. Le 'petit secret' de l'apprentissage machine est que nous ne savons pas vraiment ce que nous faisons. Nous sommes à ce niveau davantage face à de l'alchimie que de la chimie, un peu au 18e siècle où des personnes émettaient des théories sur pourquoi certaines choses pouvaient brûler. Auparavant, on s'inspirait de la théorie grecque des 4 éléments, mais des chercheurs comme Lavoisier ont commencé à faire des expériences sur le feu et ont lancé de nouvelles théories. Celles-ci n'étaient pas toujours exactes, mais allaient dans la bonne direction de la chimie proprement dite pour en arriver aujourd'hui à l'apprentissage machine. Nous avons des théories, certes pas toujours formidables, mais qui sont un pas dans la bonne direction d'une science capable de comprendre comment fonctionne la technologie. Comment décririez-vous les recherches concernant la boîte noire?watson: Facebook en a une baptisée 'données radioactives'. Si vous faites faire des radios, on vous donner parfois du baryum à boire afin que les tissus mous apparaissent sur la radio, sans quoi ce n'est pas possible. Ce que Facebook a comme projet est de générer des données radioactives. Ils 'tagguent' une partie des données afin de pouvoir les suivre lorsqu'elles se déplacent dans un réseau neuronal. Ce faisant, il est possible de mieux voir quelles données influencent la machine ou les décisions de l'algorithme. Vous siégez également au sein d'ethicsnet.org, une organisation qui entend enseigner le comportement prosocial de l'IA. De quoi s'agit-il? watson: Il s'agit en somme d'une intelligence machine polie, amicale et modeste. Les règles que nous établissions pour l'intelligence artificielle sont essentielles, mais j'estime qu'elles ne représentent que la moitié du combat que nous menons. Pour l'instant, 50% du trafic internet est généré par des machines et non par des humains. Le nombre de machines est donc en augmentation constante et nous interagissons en permanence avec l'intelligence machine. C'est en général très simple et l'on ne s'en aperçoit pas toujours. Si je recherche dans l'album photos de votre téléphone des images de votre chat ou de payage, l'IA le fera pour moi. Par ailleurs, nous utilisons des outils comme Siri et Alexa. Cette IA s'invite donc dans votre maison, tandis que des appareils comme Google Home et Alexa s'appuient sur les mêmes protocoles afin de pouvoir dialoguer entre eux. Alexa peut aussi communiquer avec d'autres assistants intelligents. Cela signifie qu'un nombre croissant d'équipements seront intelligents et s'installeront sur le réseau. Du coup, nous allons avoir toujours plus d'interactions avec l'IA qui sera dès lors toujours plus intelligente. Or il est important d'apprendre aux machines cette base du comportement social. Si l'on est en face d'un enfant de 4 ans, on ne suppose pas qu'il sait ce qui est bon et mauvais, mais nous lui enseignons ce comportement. Il doit apprendre à être calme dans un musée, à ranger ses affaires ou encore à ne pas s'approprier les objets d'autrui. Il ne s'agit pas d'une différence morale entre ce qui est bon et mauvais, mais de politesse, de manières. Cela signifie que d'autres personnes vous acceptent dans leur entourage. Nous essayons de prendre des exemples de tels comportements prosociaux et les utilisons pour apprendre à l'IA ce que nous voudrions qu'elle fasse. C'est ainsi que l'IA doit apprendre que l'homme apprécie que l'on mette ses déchets dans une poubelle. C'est une sorte de dessin animé du samedi, mais pour l'IA. De nom- breux enfants apprennent leur comportement social grâce aux dessins animés, souvent avec des archétypes exagérés de héros et de mauvais. De la sorte, ils apprennent très vite quel rôle ils peuvent essayer de suivre. Mais nous souhaitons donner à chacun l'occasion d'intégrer ses propres valeurs dans le système, afin de leur permettre d'avoir leur propre profil de comportement préférentiel. Nous ne sommes pas tous capables de programmer, mais nous savons tous comment élever un enfant. Nous avons besoin d'une telle capacité pour l'IA afin d'encadrer et d'assurer le suivi de la technologie, de sorte que la Silicon Valley, la Chine ou n'importe qui d'autre n'ait le monopole des valeurs que nous intégrons dans les machines. Nous voulons faire en sorte que chacun puisse apprendre aux machines la manière de se comporter dans le monde ou d'interagir avec l'être humain sur la base de facteurs culturels. Ce faisant, l'IA pourra être disponible pour chacun. Si nous ne le faisons pas, on en arrive à des discordes et on risque de rendre les gens malheureux. La ma- nière dont les adolescents utilisent l'IA ne conviendra pas aux plus âgés. Nous sommes toutes et tous différents et avons d'autres préférences: tel est le thème que nous abordons, de manière verbale et non verbale, lors de nos contacts. C'est ce que nous devons apprendre aux machines. Comment l'abordez-vous concrètement?watson: Tout l'apprentissage machine est guidée par les données. Ces données font la différence entre l'apprentissage machine utile et l'apprentissage machine inutile. Les scientifiques conçoivent des algorithmes très intelligents qui ne sont toutefois pas pratiques parce qu'il n'y a pas de données pouvant les entraîner. Depuis les années 80, nous disposons au niveau académique d'algorithmes très intéressants pour la re- connaissance d'images artificielle qui n'ont toutefois été utilisables sur le terrain que depuis 2011. En cause, le fait que la puissance de calcul n'était pas disponible à l'époque, alors que les données étaient disponibles. Dès que les données pour entraîner ces systèmes ont été disponibles, des progrès ont été réalisés. Voici 10 ans, Fei Fei Li a créé un jeu de données d'exemples d'Imagenet, avec des images de nuages, de voitures, d'ours en peluche, etc. qu'il a ensuite taggués. Cela a permis de progresser fortement. J'espère que lorsque nous disposerons de ce jeu de données sur le comportement, et pas uniquement des images, nous pourrons commencer à socialiser les machines afin de leur apprendre des choses dont nous avons tous envie, indépendamment de la culture. Par ailleurs, il faut tenir compte d'éléments sensibles dans certains contextes, situations ou cultures. Songez par exemple à un protocole commercial face à des situations d'urgence. Si vous avez ces données, nous pouvons commencer à apprendre. Mais sans ces données, nous ne pourrons rien enseigner aux machines et nous ne serons pas en mesure de fonctionner en société de manière pratique ou agréable. Il s'agit là d'un regard particulièrement optimiste sur l'IA, compte tenu des nombreuses dérives. watson: Je suis consciente des défis liés à l'IA, sur ses possibilités d'utilisation et d'abus, mais je suis par ailleurs prudemment positive, ce qui s'explique sans doute par la perspective que je peux avoir. En tant que femme, j'ai peut-être davantage tendance à essayer de nourrir l'IA un peu comme un enfant ou un animal domestique. Nombre de personnes qui se penchent sur la sécurité de l'IA considèrent plutôt qu'il s'agit d'un golem dangereux qui doit être lourdement enchaîné. Ma perspective est plutôt de considérer que ce golem risque de se retourner contre l'homme s'il est traité comme un esclave et qu'il est préférable d'en faire un ami. Notre histoire regorge d'exemples de ce type de situation, lorsque l'homme vivait encore de la chasse en petites groupes et que le loup était une menace mortelle capable de décimer tout un camp. Or nous avons fait de ce prédateur notre meilleur ami, le chien. Il s'agit là d'une relation à double sens: le chien nous aime et nous aimons le chien. C'est un bel exemple de la manière dont nous devons aborder l'IA. Nous ne devons pas enchaîner ce loup, mais en faire un ami, le nourrir et le transformer en adorable chien. Nous y gagnerons tous.