Comment donner une âme à l’intelligence artificielle?

© Getty Images

Si nous n’y prenons garde dans les années à venir, l’intelligence artificielle pourrait pirater les ordinateurs, propager de la désinformation et violer notre confidentialité. Comment donner une ‘âme’ à ces ‘êtres’ qui devront bientôt nous assister dans nos tâches, afin qu’ils ne nous nuisent pas? Les pistes de réflexion en conception éthique de l’IA vont d’un auteur de science-fiction mort depuis trente ans jusqu’aux principes du bouddhisme zen.

Maintenant que l’IA générative a eu son moment iPhone depuis le mois de novembre de l’année dernière, on accorde à présent une attention toute particulière aux risques que cette technologie révolutionnaire génère. Oui, depuis l’arrivée de ChatGPT et de Midjourney, la puissance de l’IA générative – des algorithmes capables de produire du nouveau contenu – est à la portée de tout un chacun, et on commence progressivement à découvrir à quel point elle est déjà glorieusement avancée. Mais tout comme l’intelligence artificielle est capable de rédiger une critique de livre pour un élève ingénieux de l’enseignement secondaire, elle peut aussi produire du code susceptible de pirater de manière autonome des ordinateurs, de diffuser de la désinformation avec des hyper-trucages (‘deepfakes’) convaincants, et d’enfreindre le respect de la vie privée des personnes.

Menace théorique (mais croissante)

Elle le peut, du moins – provisoirement et heureusement – en théorie. Mais le fait est que les systèmes d’auto-apprentissage sous-jacents aux outils actuels, à partir desquels de nouvelles itérations du système de langage GPT par exemple et du générateur d’images Midjourney sont extraites, s’améliorent de plus en plus. Et cela fait en sorte – on le remarque entre autres à la lecture des opinions rédigées sur le sujet par des experts – que toujours plus de gens deviennent nerveux à l’idée que des puissances maléfiques en abusent à l’avenir.

Ce qui est encore plus alarmant, c’est que l’IA générative soit déjà une station intermédiaire sérieusement perfectionnée entre l’intelligence artificielle étroite (préprogrammée par des humains, mais qui peut entre-temps apprendre aussi par elle-même) et l’IA générale (qui non seulement apprend, mais réfléchit aussi par elle-même). Combien de temps faudra-t-il encore attendre, avant que les ordinateurs puissent réfléchir comme des humains, tels que HAL 9000 dans 2001: L’Odyssée de l’espace? Les projections vont de quelques années jusqu’à la moitié de ce siècle. Les deux tendances indiquent qu’il sera de plus en plus urgent d’éviter que les systèmes d’intelligence artificielle nuisent aux humains. Pour leur faire prendre conscience d’eux-mêmes et de ‘nous’. Un sens moral donc.

Ethics by design’

Les concepteurs de logiciels en général, et les chercheurs en IA en particulier recourent dans ce but à un principe de conception connu depuis des années déjà sous l’appellation Ethics by design: l’intégration délibérée de principes éthiques et humains dans l’ensemble du processus de recherche, de conception, de développement et de livraison: du programme brut au logiciel extrêmement intelligent. Mais à présent que les systèmes d’intelligence artificielle envahissent plus profondément notre vie de tous les jours, il convient d’aller au-delà de ce genre de principes philosophiques: la question devient de plus en plus concrète quant à la façon dont ce sens moral doit à présent être programmé dans GPT-4, Bard, LlamA 2 et dans leurs descendants probablement encore nettement plus intelligents. Avec un peu d’emphase même: fin mars, le Center for AI and Digital Policy, une fondation américaine qui suit de très près les évolutions néfastes de l’IA, a déposé une plainte auprès des autorités américaines en leur demandant d’enquêter précisément sur les principes éthiques intégrés par OpenAI dans son modèle de langage.

Une partie au moins de la communauté des chercheurs en IA s’y est attelée. Il existe même déjà deux ‘écoles’ de réflexion. La première piste prévoit l’incorporation statique de principes éthiques. Ce que les systèmes d’intelligence artificielle peuvent ou ne peuvent simplement programmer. Le géant informatique IBM, qui joue depuis des décennies déjà un rôle important dans la recherche et le développement de l’intelligence artificielle depuis la sortie de son superordinateur Watson, tient par exemple compte dans le développement de ses systèmes IA d’éléments tels que la responsabilité, l’équité, le respect des droits de l’utilisateur sur ses données personnelles, et la transparence dans le processus sous-jacent à chaque décision prise par les systèmes (il y a quelques années, IBM avait par exemple déjà fait effectuer par un ordinateur IA un ‘stage’ comme juriste dans un cabinet d’avocats).

Les lois d’Asimov

Mais il existe depuis plus de quatre-vingts années déjà une ligne directrice à la fois meilleure et plus claire pour l’IA, comme l’a suggéré récemment encore l’entrepreneur technologique Igor Jablokov dans Fast Company: celle de l’auteur de science-fiction américano-russe Isaac Asimov. Dans son récit Runaround paru en 1942, Asimov avait défini seulement trois lois fondamentales auxquelles les robots doivent satisfaire, et qui sont restées ensuite une constante dans toute l’œuvre de cet auteur du cycle livresque Foundation, décédé en 1992. La loi la plus importante est la première: Tu ne feras pas de mal à un être humain (ou, en n’intervenant pas, tu ne permettras pas qu’on fasse du mal à un être humain). La deuxième loi d’Asimov renforce la première: tu obéiras toujours aux ordres des êtres humains (sauf si cela contredit la première loi). Et puis la troisième: tu te protégeras toi-même (aussi longtemps que cela est conforme aux deux premières lois).

‘Les lois d’Asimov sont conçues pour garantir que l’IA soit développée en vue d’avantager et faire progresser les êtres humains’, suggérait Jablokov. ‘Sans règles, l’IA peut être utilisée pour influencer des élections et diffuser de la désinformation en vue de tromper les électeurs. Sans règles, ces modèles peuvent être utilisés pour voler des informations d’entreprise et porter atteinte à la propriété intellectuelle. Sans règles, ces modèles peuvent être utilisés pour évider le consensus le plus fiable et le plus précis sur ce qui est vrai et ce qui est faux.’

L’IA sage

C’est un bon début, mais pas complètement étanche: comment un ‘robot’ (aussi un système informatique artificiellement intelligent donc) devrait-il empêcher un méfait par lequel une personne tente d’en frapper une autre à la tête? Voilà pourquoi il y a des chercheurs en IA, notamment chez OpenAI et au Future of Life Institute, qui préfèrent emprunter une autre direction: la voie adaptative. Pas de règles encodées dans ce cas, mais un système qui apprend par lui-même ce qui est bon et mauvais sur base du comportement de ses utilisateurs. Ce n’est pas là de l’obéissance, mais de la sagesse.

La question est bien sûr de savoir de quels utilisateurs les systèmes reçoivent-ils cette sagesse? S’ils la tirent de l’attitude en ligne de la population mondiale, de mauvais comportements tels du racisme peuvent s’insinuer dans ce sens moral. Mais il existe des moyens de former les systèmes d’intelligence artificielle en ‘êtres’ imprégnés de sagesse, selon plusieurs observateurs. L’un de ceux-ci, le moine bouddhiste américain Soryu Forall, estime que nous n’avons pas besoin de chercher plus loin que le Bouddha Siddhartha Gautama, sur les enseignements de qui est basé le bouddhisme. ‘Nous devons créer une IA qui suive une voie spirituelle’, a-t-il déclaré au magazine américain The Atlantic. ‘Une IA qui convainc les autres systèmes d’intelligence artificielle de ne pas nous nuire. Nous avons besoin d’un gourou de l’IA. Un dieu de l’IA.’

Une IA ayant de la personnalité

Forall essaie depuis un certain temps déjà de transformer cette idée en réalité de deux manières spécifiques. La première consiste à prodiguer des conseils spirituels aux penseurs de l’IA: des personnes d’OpenAI, de Google DeepMind et d’Apple sont déjà parties en retraite dans son monastère situé dans l’état américain du Vermont, et Tom Gruber, l’un des créateurs de Siri AI d’Apple, est un grand fan de Forall. Mais la Monastic Academy for the Preservation of Life on Earth (MAPLE) de Forall tente également de convertir les principes du bouddhisme zen en lignes directrices pour les chercheurs de l’IA, assistée en cela par les écrits de l’historien Yuval Noah Harari et des futuristes Zak Stein et Tristan Harris.

Peut-être, comme l’a récemment aussi suggéré l’auteur de science-fiction David Brin dans Wired, un tel trajet illuminé conduira finalement non seulement les systèmes d’IA à comprendre la différence entre les systèmes informatiques et ‘nous’, mais aussi à quelque chose de plus large qu’une simple prise de conscience morale: peut-être, a-t-il encore écrit, qu’ils ont également besoin d’acquérir une prise de conscience individuelle d’eux-mêmes, de sorte que, même s’ils atteignent au fil du temps un QI supérieur à celui de nos plus grands savants, ils puissent se tenir à nos côtés. En leur âme et conscience en quelque sorte.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire