Richard Socher

Les problèmes de l’IA : non pas un scénario catastrophe mais beaucoup de préjugés

Richard Socher Chief Scientist chez Salesforce

Les progrès technologiques s’accompagnent toujours d’appréhensions et d’incertitudes. Depuis la révolution industrielle, les gens sont aux prises avec l’impact des nouvelles technologies sur leur travail et leur vie. Aujourd’hui, la même angoisse refait surface, cette fois dans le sillage de chaque bond en avant accompli par l’IA.

Malgré les formidables progrès enregistrés par les chercheurs ces dernières années, l’IA n’en est encore qu’à ses premiers balbutiements avec, à la clé, son cortège d’incertitudes, de malentendus et d’inquiétudes. Elon Musk, qui se positionne en critique virulent de l’IA, abuse de ces malentendus afin de créer l’image funeste d’une apocalypse de l’IA, tout en intégrant des algorithmes IA puissants et sophistiqués dans ses voitures Tesla. Ce “grand écart” montre surtout à quel point nous sommes tous captifs d’un cycle de battage inutile et dangereux.

Nous devons surmonter cette peur irrationnelle pour prendre pied dans la réalité : il n’existe aujourd’hui aucune recherche crédible validant les scénarios fatalistes brodés autour de l’IA. Certes, il s’agit évidemment d’une fiction passionnante. À l’époque, j’ai adoré Terminator, tout comme de nombreux autres enfants de mon âge. Ce genre de film a de quoi fasciner, mais dans le monde réel, la crainte irrationnelle de l’apocalypse nous empêche d’appréhender correctement les véritables menaces posées par l’IA.

Ses principaux problèmes relèvent des préjugés et de la diversité. Ils sont bien plus humains et urgents que la peur de la singularité ou d’une révolte des robots. L’IA est confrontée, d’une part, à des données d’apprentissage empreintes de préjugés et, d’autre part, à un manque de diversité dans le cadre de la recherche.

Les problèmes de l’IA : non pas un scénario catastrophe mais beaucoup de préjugés

En formant les intelligences artificielles au moyen de données biaisées, nous injectons – délibérément ou non – notre propre partialité dans les algorithmes. Nous réalisons ainsi tranquillement une IA qui va avantager les uns au détriment des autres. À défaut d’une diversification dans le secteur, certaines personnes exerceront une influence considérable sur les décisions invisibles menant à la création d’une IA. L’impact potentiel de l’IA sur la vie quotidienne des gens ne cesse en outre de croître depuis qu’on l’intègre, entre autres, dans les procédures de recrutement, les demandes de prêts et les décisions médicales. Nous devons veiller à ce que l’IA n’adopte pas nos caractéristiques les plus malsaines.

Les données innocentes, ça n’existe pas

L’IA entretient des contacts de plus en plus étroits avec des systèmes humains essentiels, et nous ne pouvons pas oublier que la technologie ne fonctionne pas dans un vide. Elle a besoin d’énormes quantités de données, qui sont analysées par de puissants algorithmes afin d’en distiller des perspectives révélatrices. Une IA n’est donc jamais aussi bonne que les données d’apprentissage qu’elle peut traiter. Si ces données sont empreintes de préjugés (langage sexiste ou raciste, par exemple), les résultats en seront pour ainsi dire infectés. L’apprentissage d’une IA est en outre renforcé quand l’algorithme répète des milliers ou des millions de fois certaines décisions. C’est ainsi que des préjugés initialement dissimulés dans les données rejaillissent subitement à la surface.

Contrairement à une révolution des robots, l’IA biaisée n’est pas un risque hypothétique. Une IA empreinte de stéréotypes et présidant un concours de beauté choisissait systématiquement des participantes blanches, tandis qu’un algorithme de Google classait des visages noirs en tant que gorilles. Et dans le cadre d’une étude, une IA associait les noms masculins à l’ambition de carrière, aux mathématiques et à la science. Les noms féminins, quant à eux, allaient de pair avec l’art. Tout comme nos clics nous maintiennent dans nos propres bulles Facebook, les données mâtinées de préjugés induisent l’IA à accentuer les partis pris humains.

Nous ne pouvons pas déléguer à l’IA la responsabilité de nos décisions. Si nous comptons faire davantage appel à l’intelligence artificielle pour prendre nos décisions, nous devons tout mettre en oeuvre pour être certains d’utiliser les systèmes avec discernement. Et pour ce faire, un premier pas consiste à accroître la transparence du processus de collecte de données. D’où viennent les données ? Qui les a rassemblées ? Et comment ? Nous devons également reconsidérer nos modèles et clarifier leur fonctionnement. Nous pourrons ainsi déceler des préjugés qui nous avaient peut-être initialement échappé.

Si nous parvenons à traiter le problème en profondeur, l’IA sera bien plus susceptible de nous aider à créer un monde meilleur. Peut-être est-il impossible de balayer les préjugés humains de la surface du monde, mais nous pouvons faire en sorte que nos IA aient moins de préjugés que leurs développeurs.

Bien que les préjugés humains soient à l’origine de cette problématique, l’intelligence humaine peut la résoudre. Ainsi, par exemple, les algorithmes sont de plus en plus efficaces pour la détection de “fake news” et de discriminations, même si un contrôle humain demeure évidemment indispensable pour améliorer leur qualité. Quand on parle de l’évolution du marché du travail et de l’influence qu’exercerait l’IA sur ce plan, je vois d’ailleurs un nouveau métier se profiler à l’horizon : l'”AI-Monitor”. Nous aurons en effet toujours besoin d’un contrôle humain sur l’input et l’output de l’IA.

L’IA : un problème humain

Cette réflexion nous amène au second obstacle à la création d’une IA sans préjugés : il faut davantage de diversité parmi les chercheurs et développeurs qui élaborent les systèmes. De nombreuses études ont déjà fait ressortir un sérieux déséquilibre. D’après code.org, les Noirs et les Latino-Américains sont nettement sous-représentés dans le secteur. Une représentation moins importante va généralement de pair avec un accès plus limité, non seulement dans les écoles mais aussi dans les entreprises et les instances publiques.

Nous devons veiller activement à ce que chacun bénéficie d’un même accès aux nouvelles technologies lorsqu’elles font leur entrée dans la société. Heureusement, l’IA peut aussi nous y aider. Ainsi, l’IA nous permet de réaliser des kits d’outils pour développeurs toujours plus intuitifs et, partant, d’améliorer l’accès à partir des milieux scolaires, de sorte que l’IA atteigne automatiquement davantage de personnes.

L’octroi d’opportunités d’apprentissage à un large groupe de gens entraînera automatiquement une diversification du secteur. Cette diversité nous aidera, à son tour, à purger l’IA des préjugés qui pourraient éventuellement nous échapper à cause d’une perspective unilatérale.

L’avenir commence aujourd’hui

Nous devons relever ces défis de toute urgence : l’avenir est déjà au pas de nos portes. L’IA est peut-être bien l’outil le plus sophistiqué que nous ayons jamais conçu. Mais à l’instar d’un marteau, il peut être utilisé à bon ou à mauvais escient. Moyennant un contrôle efficace par nos scientifiques et dirigeants politiques, l’IA peut rendre le monde meilleur. Il peut automatiser la production et le transport d’aliments, personnaliser les soins de santé et offrir à chacun l’opportunité d’être plus productif, quels que soient son expérience ou son bagage.

La réalisation d’une meilleure IA est donc directement proportionnelle à la poursuite d’une vie meilleure pour tous. Créer des versions améliorées et plus efficaces de nous-mêmes : telle est la promesse de l’IA. La technologie nous permet de nous concentrer sur les tâches créatives et empreintes de sens. Même aujourd’hui, au travers de ses premiers pas, elle nous aide en reflétant notre image.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire