L’IA peut nous rendre immortels! Mais le voulons-nous?

© Getty Images
Ronald Meeus

Une version artificiellement intelligente de nous-mêmes, formée à l’aide de nos données personnelles, pourrait nous survivre à l’avenir. Les implications éthiques et morales de cette situation sont incalculables.

Dans Be Right Back, un épisode de la deuxième saison de la série de science-fiction britannico-américaine Netflix Black Mirror, la jeune femme Martha (interprétée par Hayley Atwell) communique avec son compagnon de vie Ash (Domhall Gleeson), récemment décédé dans un accident de voiture, par l’intermédiaire d’un chatbot IA qui l’imite. L’épisode date de 2013, ce qui se reflète également dans la technologie « future » qui y est employée : le personnage principal, par exemple, utilise son ordinateur portable au moyen d’une technologie gestuelle de type Kinect, aujourd’hui obsolète. Mais dans un autre ordre d’idée, la science-fiction d’il y a 12 ans est devenue plus ou moins une réalité. Des chatbots qui vous permettent de communiquer avec (une version de) vos proches décédés ? Ils existent !

Charlie Brooker, le créateur de Black Mirror, ne se doutait peut-être pas en 2013 que la progression des grands modèles de langage (LLM) prendrait soudainement une telle ampleur, mais la capacité de ces objets à imiter n’importe quoi ou n’importe qui est désormais bien connue. Ainsi, au cours des deux dernières années, une industrie de l’IA Afterlife plutôt effrayante a vu le jour, avec des « griefbots » qui vous permettent littéralement de communiquer avec un être cher depuis Gene Side. Seance AI, par exemple, permet à vos proches décédés de « vivre » sous la forme d’un bot IA : pour 10 euros par mois – environ le prix d’un abonnement à la télévision en streaming – vous pouvez, aussi sinistre que cela puisse paraître, organiser une séance de spiritisme virtuelle à n’importe quel moment. Et l’entreprise de Corée du Sud re;memory permet même de créer une version vidéo de soi-même.

Hayley Atwell et Domhall Gleeson dans l’épisode ‘Be Right Back’ de ‘Black Mirror’ (Image Netflix).

Deepfake des morts

Fort de son bagage académique, Mark Coeckelbergh, philosophe de la technologie à l’université de Vienne, pose la même question pertinente que celle que vous avez peut-être déjà pressentie intuitivement : pourquoi voudrions-nous cela ? « Je comprends que ce genre de choses soit nécessaire : personne ne veut mourir », explique Mark. « Il y a toujours eu une aspiration à l’immortalité, et une technologie comme celle-ci peut être un moyen de rester présent même après notre mort. Ou de garder nos proches décédés à proximité. Le problème, bien sûr, c’est qu’il ne s’agit que d’une illusion, d’une sorte d’hypertrucage ou deepfake de la personne réelle. Il ne s’agit pas des personnes décédées elles-mêmes, mais d’une reconstitution de celles-ci. Mais, en même temps, ces éléments s’amélioreront naturellement, tout comme les données sur lesquelles ils reposent. Les personnes nées il y a dix ans, par exemple, ont généré des données tout au long de leur existence et jusqu’à la fin de leur vie. Si ces données sont collectées quelque part et qu’un robot peut les utiliser, ses résultats deviennent de plus en plus réalistes. Jusqu’à ce qu’il devienne de plus en plus facile d’accepter l’illusion : les gens sauront qu’il ne s’agit pas de la personne elle-même, mais inconsciemment, cela aura un impact certain. Une telle conversation avec un chatbot a, par définition, un impact. Il suffit d’observer comment les gens s’attachent déjà à des chatbots ordinaires. À tel point que, dans des cas extrêmes, cette pratique les a conduits au suicide. »

Quelle que soit la quantité de données que vous introduisez dans ces « robots de personnalité », ils ne seront jamais la vraie personne. En effet, les souvenirs sont plus que des données : ce sont des schémas d’activité, des connexions entre les neurones du cerveau. Ils sont enregistrés structurellement et chimiquement dans votre tissu cérébral, tout l’inverse des données binaires stockées sur un disque dur. Le téléchargement d’une personnalité complète relève encore de la science-fiction : il faudrait pour cela lire le cerveau au niveau du nanomètre, pour commencer. Il s’agit d’un comportement copié sur le clone de l’IA, et non d’une expérience.

Ainsi, quelle que soit l’ampleur du développement de l’intelligence artificielle dans les années à venir, elle reste une illusion sous-tendue par une réalité commerciale. Dans la série Black Mirror, bien sûr, cela ne s’arrête pas au chat et aux conversations téléphoniques entre la jeune veuve et son amant décédé : finalement, cette « version bot » de lui-même essaie de vendre à son aimée encore vivante une sorte de corps bionique qui hébergera son IA. C’est à ce moment-là que Be Right Back se transforme en une histoire de science-fiction quelque peu tirée par les cheveux, mais le risque inhérent aurait été présent même si l’histoire était restée un peu plus terre à terre : que se passe-t-il si vous n’avez pas lu les conditions générales et que vos proches décédés sont utilisés à mauvais escient pour vous vendre des produits ?

« Il y a un intérêt commercial à ce que l’utilisateur de ces robots parle le plus longtemps possible au défunt ou à son avatar », poursuit Mark. « Il n’est pas dans l’intérêt de l’entreprise que cette personne puisse vraiment faire ses adieux. Ce faisant, ces robots s’immiscent dans votre processus de deuil : pour faire face à la mort, nous avons développé des rituels. Je ne sais pas si continuer à parler à une construction d’une personne décédée est la bonne façon de faire son deuil. »

Professeur Mark Coeckelbergh (Université de Vienne).

Second Moi

Les « griefbots » ou chatbots de deuil sont un exemple extrême d’un phénomène plus large qui se développe discrètement : celui des clones numériques. Des secondes versions de nous-mêmes qui fonctionnent sur la base de nos données, que nous avons nous-mêmes alimentées. Les premiers services sont déjà fournis par des startups telles que Delphi.ai, Storyfile, Eternos et Replika. Avec la baisse du prix des puces d’IA et l’amélioration continue de la technologie de l’IA, notamment grâce aux progrès des agents autonomes, il sera de plus en plus facile de créer son propre LLM, une sorte de « deuxième Moi » basé sur son propre ensemble de données gigantesque.

Les premières applications sont actuellement testées dans le domaine commercial ou professionnel. Par exemple, quelqu’un souhaite discuter de quelque chose avec vous de manière très urgente, mais vous êtes vous-même trop occupé ? Pas de souci, car toute une série d’entreprises – d’obscures startups à des géants comme Meta – travaillent sur une technologie permettant de créer un assistant IA avec votre image, votre voix, votre comportement et vos données. Et quand vous ne pouvez pas participer à une réunion Teams impromptue, l’assistant IA le peut aussi. Mais une telle technologie pourrait bien sûr aller au-delà de l’envoi de courriels ou de la participation à des réunions Teams.

C’est la raison pour laquelle elle figure en tête des préoccupations dans le monde de la technologie. Dans une récente interview accordée à Wired, Mark Cuban, l’investisseur en capital-risque connu pour ses investissements dans des entreprises technologiques telles que Roku et Box, a expliqué comment il envisageait l’avenir de cet environnement : « Les processeurs sont très chers. Ils ne seront pas toujours très chers. L’efficacité de la formation et de la construction de modèles va changer. Chacun aura son propre modèle. Il y en aura des millions et des millions de millions. Tout le monde sera immortel d’une certaine manière. Ainsi, si vous conservez tous vos courriels et toutes vos conversations, ou si vos parents les ont conservés pour vous depuis votre enfance – vos cahiers de votre première primaire, vos photos, toutes les choses que font les enfants -, vous avez la petite Lauren LLM. Quand Lauren aura 11 ans, ce sera probablement sa meilleure amie. »

Cependant, lorsque nous mourons, cela ne signifie pas nécessairement la fin de ce « second Moi ». Cette situation s’accompagner d’un certain nombre d’implications. « Car est-ce vraiment ce que vous voulez, que vos données continuent à hanter le monde en restant plus ou moins « vivantes » ? », constate Mark Coeckelbergh. « Après tout, c’est bien de cela qu’il s’agit : hanter. Vos données, collectées et capables de raisonner par l’intermédiaire d’un robot, restent présentes. Le droit à l’oubli fait actuellement l’objet de tout un débat. Mais il va de soi que le modèle du consentement ne fonctionne plus quand on est mort. À qui devons-nous donc demander ce consentement : à votre plus proche parent ? Vous pourriez prévoir une disposition qui vous permettrait, de votre vivant, de décider de désactiver cet avatar à votre mort. Mais alors, qui supprimera ces données ? »

Second décès

La génération actuelle de clones d’IA et de griefbots n’est donc encore basée que sur l’IA générative, qui reste en soi une forme rudimentaire d’intelligence artificielle. Mais que se passera-t-il si l’IAG, l’Intelligence artificielle générale, fait son apparition et qu’un agent IA peut se faire passer pour un proche décédé de manière encore plus réaliste ? « Je suis très sceptique quant à l’IAG, et je pense qu’elle n’arrivera jamais ou très tard », souligne Mark. « Mais si elle arrive, elle aura évidemment un impact très important. Outre les personnes vivantes, vous verrez alors de plus en plus de ces « personnes » numériques, car le chatbot sera si bon que vous ne remarquerez pas la différence. Il n’est donc pas inconcevable que certains d’entre eux portent les traits de personnalité d’une personne décédée. Mais que se passerait-il si vous deviez prendre congé de ce second moi ? Supposons que l’entreprise qui en est à l’origine interrompe ses services ou fasse faillite. Le soutien à votre défunt peut s’estomper à un moment ou à un autre. Conséquence : la personne meurt alors une seconde fois. »

Pour en revenir à la question de savoir si c’est ce que nous voudrions tous. Dans Be Right Back , même Martha ne tombe pas immédiatement sous le charme de la version chatbot d’Ash. Mais à un moment donné, elle cède : d’abord pour pouvoir dire – avec l’irrationalité d’une personne en deuil – à cette version de l’IA qu’elle est enceinte de lui. Mais à ce moment-là, il la rattrape et la conversation se poursuit. C’est le problème avec ce genre de choses, dit constate Mark : elles peuvent être particulièrement séduisantes. « Les gens vont de toute façon essayer une fois. C’est souvent le cas : avant même de s’en rendre compte, on s’adresse de toute façon à ce bot. Et tout d’un coup, on y devient accro. »

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire