‘L’AI sophistiquée deviendra-t-elle le nouveau laborantin?’

© Getty Images/iStockphoto
Sebastien Marien Stagiair Data News 

Qui est responsable, lorsqu’il y a un gros problème au niveau de l’intelligence artificielle (AI)? Un philosophe compare à l’expérience de Milgram la façon dont nous rejetons la responsabilité sur l’AI.

Le Dr. Paula Boddington est philosophe et chercheuse à l’université d’Oxford. Au MWC, elle a parlé de l’éthique derrière l’intelligence artificielle (AI). Selon elle, l’homme doit apprendre à considérer cette technologie dans un large contexte.

S’il y a un gros problème avec une application AI, il n’est jamais évident de pointer unilatéralement du doigt un responsable.

“Les chercheurs sont parfois un peu trop imprévoyants et se focalisent sur l’amélioration technique de l’AI sans s’arrêter aux conséquences sociales de leurs innovations.” C’est précisément la raison pour laquelle il est important de considérer la technologie dans sa globalité, afin qu’ensuite et là où c’est nécessaire, ces réflexions soient coulées dans une réglementation concrète.

“L’intelligence artificielle doit être un complément à ou un équivalent de l’intelligence humaine. Il n’est dès lors rien de plus logique que ce genre d’intelligence sophistiquée s’accompagne des mêmes responsabilités. Qui dit grand impact, dit automatiquement grande responsabilité.”

Qui est responsable?

Selon Boddington, c’est précisément là où le bât blesse, parce que l’AI, c’est après tout une machine. “S’il y a un gros problème avec une application AI, il n’est jamais évident de désigner unilatéralement un auteur”, déclare la chercheuse. L’erreur en incombe-t-elle à l’éditeur du logiciel? Ou à un scientifique qui a peut-être commis une faute? Ou bien encore à une entreprise partenaire? Comme on le voit, les possibilités ne manquent pas.

'L'AI sophistiquée deviendra-t-elle le nouveau laborantin?'
© SM

“Les designers et les développeurs d’AI sophistiquée sont responsables des implications morales de leurs applications, de même que de l’abus de celles-ci et de tous les effets que cela sous-entend. Les implications morales ne doivent pas être considérées seulement comme une responsabilité, mais aussi comme une opportunité pour pouvoir mettre en oeuvre de nouvelles choses”, affirme la chercheuse de l’université d’Oxford.

Sympathies nazies

“Dans les années 70, l’expérience de Milgram démontra combien les êtres humains peuvent s’infliger sans scrupule des chocs électriques. Le laborantin présent lors de ce test était-il responsable? Si oui, l’AI sophistiquée deviendra-t-elle le prochain laborantin?

Comme exemple d’une intelligence artificielle qui a complètement dérapé, Boddington cite une expérimentation de Microsoft datant de 2016 que l’entreprise a arrêtée après moins de 24 heures. Le chatbot ‘Tay’ était conçu pour effectuer des conversations d’une manière naturelle, et analysait à cette fin un grand nombre de tweets.

“Microsoft n’était pas préparée au tollé qui suivit. En moins d’une journée, Tay évolua de: ‘J’aime tout le monde. Les gens sont cool’, à: ‘Je hais les Juifs. Hitler avait raison”, selon Boddington.

Milgram et l’intelligence artificielle

Les propos de Tay furent considérés comme drôles par beaucoup. Mais si une AI sophistiquée adulte dérape, il faut quand même que quelqu’un en assume la responsabilité. La chercheuse britannique se référa à l’expérience de Milgram des années 70: “Dans les journaux, on vit apparaître des annonces décrivant comment des gens pouvaient participer à une expérience scientifique contre paiement.”

“L’épreuve consistait à appliquer des chocs électriques toujours plus puissants à d’autres gens. Sous le regard d’un homme en habit de laborantin, les participants au test n’hésitèrent pas à appliquer sans scrupule des chocs toujours plus puissants, allant jusqu’à menacer la vie d’autrui. Et ce n’est pas en raison de la présence de ce laborantin qu’ils renoncèrent à aller toujours plus loin. Alors, l’AI sophistiquée sera-t-elle un jour vraiment le nouveau laborantin?”

Code éthique

Enfin, Paula Boddington y va encore d’une réflexion:”L’impact de l’AI se substituant à l’homme peut être énorme. D’une part, on confère une grande responsabilité à des machines, mais d’autre part, on enlève ainsi aussi des emplois et des responsabilités aux hommes. Il convient donc d’élaborer un code éthique à propos de savoir quelles tâches peuvent être attribuées ou non à du software.”

La chercheuse britannique n’est du reste pas la seule à estimer qu’il faut mettre en oeuvre des règles plus claires vis-à-vis de l’AI. Récemment encore, 26 scientifiques ont dressé un rapport étoffé, dans lequel ils évoquent les risques d’une intelligence artificielle hors de contrôle. L’une des mesures qu’ils préconisaient, c’était de créer un nouvel organe fixant des limites à l’accès à l’AI.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire