Les hyper-trucages peuvent également être utiles

. © Google

Dans les appels vidéo et les films, la technologie ‘deepfake’ (hyper-trucage) permet d’échanger un visage de manière réaliste avec ceux de personnes existantes ou décédées. Ses inconvénients sont connus depuis longtemps, mais en connaissez-vous déjà les avantages?

En fait, l’acteur Bruce Willis a cessé de jouer. Pourtant, l’année dernière, il est apparu dans une toute nouvelle publicité russe. Non pas parce que Willis a reporté sa retraite – il souffre d’aphasie cérébrale et ne pourra vraiment plus tourner -, mais parce qu’il avait loué son image numérique à la société de publicité Deepcake, rapporte Wired. Deepcake a utilisé la technologie ‘deepfake’ pour recréer Willis de manière réaliste et coller son visage sur celui de son propre acteur. En principe, Willis pourrait ainsi continuer de gagner de l’argent en jouant, selon la chercheuse en culture pop Linda Duits sur son blog.

Voilà qui est un peu différent des nouvelles habituelles et surtout négatives sur les deepfakes. Parce que les hyper-trucages sont si réalistes que le phénomène génère beaucoup de méfiance à l’égard des vidéos et de leur réalité. Il y a aussi beaucoup de deepfake porno qui se manifeste, où on retrouve les visages de personnes célèbres n’ayant pas donné leur autorisation pour ce faire.

Décédé

Pourtant, cela ne rend pas nécessairement la technologie dangereuse ou inutile. Par exemple, la police néerlandaise a réalisé une vidéo deepfake de l’adolescent assassiné Sedar Soares, pour obtenir des informations sur son cas non résolu. Et en Floride, les visiteurs du musée Salvador Dalí visitent le peintre lui-même, sous une forme deepfake.

Sur base de cette technologie, la tonalité vocale d’une personne peut également être recréée au départ de suffisamment d’enregistrements, ce qui peut être une solution pour les personnes ayant perdu leur voix, selon Mariëtte van Huijstee. Au Rathenau Instituut, cette dernière étudie l’impact des deepfakes. En outre, les ordinateurs équipés de la technologie deepfake peuvent reconstruire des visages en 3D, ce qui peut aider les chirurgiens plasticiens, par exemple, à restaurer l’ancien visage de quelqu’un.

Thérapie profonde

Tout dépend donc de la façon dont on utilise la technologie deepfake. Par exemple, le professeur d’informatique Theo Gevers de l’Université d’Amsterdam examine si des personnes traumatisées pourraient bénéficier de deepfakes pour leur thérapie. Par exemple, quelqu’un qui reste englué dans une période de deuil, peut avoir une conversation zoom avec un deepfake de la personne décédée, interprété par un thérapeute. Il guide la conversation et toute la thérapie. L’idée derrière cette soi-disant thérapie profonde est que les patients entrent dans une conversation sûre et responsable en contact avec des personnes qui ne sont plus là.

Adieu

‘Tout cela en est encore à ses balbutiements’, souligne Gevers. Et ce n’est pas pour autant qu’il pense que tous ceux qui pleurent un être cher, bénéficieront d’un deepfake de la personne qu’ils ont perdue. ‘On doit ici surtout penser aux gens qui n’ont pas pu se dire au revoir.’ Certaines personnes en sont très émues. En parlant au deepfake, ce sentiment négatif peut être réduit.

Un exemple, selon Gevers, se trouve dans le documentaire NPO de Roshan Nejal qui a été autorisé à filmer le projet de recherche. ‘Il y avait des parents qui avaient perdu leur fille par suicide. Le couple pouvait entamer alors une conversation et poser des questions. On recherche toujours ce qui fonctionne le mieux pour le deuil.’

Le pouvoir de l’imagination

Les victimes traumatisées d’abus sexuels ont déjà pu parler à un deepfake de leur agresseur lors de séances de thérapie profonde – avec le psychiatre en arrière-plan. ‘Cela fait partie d’une thérapie plus vaste’, affirme Gevers. Cela concerne les victimes qui ressentent une réaction de stress violente à presque chaque pensée de l’événement ou de l’agresseur, et qui veulent y être moins sensibles.

Par exemple, les victimes reçoivent déjà une thérapie EMDR, dans laquelle elles essaient de se souvenir de l’événement et apprennent ensuite à convertir leurs émotions en quelque chose de moins négatif. Elles sont alors dépendantes de leur propre imagination, selon Gevers. La thérapie profonde rend cette étape plus facile, voilà l’idée. Au début, une telle conversation deepfake peut être très intense pour la victime, mais sous l’égide du thérapeute, il peut toujours être possible de fermer certaines émotions, en fonction des premiers tests.

Vrai ou faux

‘Mais même si les hyper-trucages sont utilisés avec de bonnes intentions, il convient de se méfier des effets secondaires indésirables’, explique Van Huijstee. ‘Nous voyons avec ce type de médias synthétiques que la frontière entre le vrai et le faux devient de plus en plus floue. Je peux imaginer que la prochaine étape est qu’avec l’intelligence artificielle, il sera toujours possible de parler aux personnes décédées. Comment cela se traduira-t-il au niveau du deuil?

‘Contrairement aux photos de personnes décédées – dont les gens s’inquiétaient précédemment -, l’illusion avec les deepfakes est beaucoup plus convaincante’, ajoute Van Huijstee. ‘On ne peut plus stopper le fait qu’elle soit là, et on n’a du reste pas à le faire, parce qu’il y a des aspects vraiment positifs. Mais il doit y avoir des règles et des lois claires pour son utilisation. Ce serait bien si les gens devenaient résilients et comprenaient si quelque chose est vrai ou faux.”

En collaboration avec KIJK Magazine

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire