Grâce à l’IA, il est plus facile que jamais d’imiter une voix ou de reproduire un visage afin de diffuser une vidéo truquée convaincante. Cela peut entraîner des situations dangereuses, telles que l’usurpation d’identité ou la manipulation de campagnes électorales. La technologie, combinée à la vigilance humaine, devient indispensable pour vérifier l’authenticité des images et prévenir toute forme de manipulation.
L’augmentation rapide des deepfakes met notre législation à l’épreuve. Bien que le RGPD protège les données personnelles et que de nombreux pays appliquent le droit d’auteur et le droit à l’image, ces règles offrent peu de garanties à une époque où l’IA peut imiter rapidement et de manière convaincante images et voix.
En théorie, personne n’a le droit de créer des deepfakes d’une personne sans son autorisation. Ce droit reste valable jusqu’à vingt ans après le décès, période pendant laquelle les héritiers peuvent encore invoquer le droit à l’image. Mais même dans ce cas, il reste discutable sur le plan éthique de faire revivre numériquement quelqu’un, même avec autorisation. En pratique, la création et la diffusion de deepfakes sont rarement poursuivies, notamment parce qu’il devient de plus en plus difficile de distinguer les images réelles des images truquées.
Pas seulement la technologie, mais aussi la vigilance humaine
Le défi de la vérification peut être partiellement relevé grâce à la technologie. Les technologies d’authentification ajoutent par exemple un contexte supplémentaire aux images, comme des filigranes, des horodatages, des signatures numériques, des données de localisation et des informations sur les mouvements.
Des registres publics dans lesquels les algorithmes d’IA sont enregistrés renforcent également le contrôle de l’authenticité. Ils précisent notamment à quoi sert un algorithme, qui l’a développé et comment il est sécurisé. Cela favorise la transparence et aide à démasquer plus rapidement les deepfakes. Ces moyens d’authentification et ces registres permettent de déterminer si des images sont authentiques et les rendent même utilisables comme preuve devant les tribunaux.
Cependant, ces technologies ne sont efficaces que si les personnes savent comment les utiliser. Formez vos collaborateurs à reconnaître les images suspectes et à signaler les situations douteuses, afin que la manipulation soit détectée plus rapidement. Apprenez-leur à repérer les indices d’une image falsifiée : pixels flous ou décalés, mouvements anormaux des yeux, des sourcils ou de la bouche, peau trop lisse ou au contraire étrangement ridée, ombres ou éclairages incohérents, saccades dans l’image… Ces petits détails peuvent révéler qu’une vidéo a été truquée ou qu’il s’agit même d’un deepfake.
Le progrès exige la collaboration
Chacun a une part de responsabilité dans la fiabilité du monde numérique : les entreprises doivent être transparentes sur la manière dont elles stockent, traitent et sécurisent les images, et communiquer ouvertement sur leur utilisation de l’IA et des technologies de caméra. Les chercheurs doivent constamment rechercher de nouvelles méthodes pour vérifier l’authenticité des images. Les législateurs doivent établir des règles claires et applicables, telles que l’AI Act, le Cyber Resilience Act, et des directives comme NIS2 et CER. Les consommateurs doivent quant à eux rester critiques face à ce qu’ils voient et partagent en ligne. Ce regard critique commence déjà à l’école, où les enfants et les étudiants doivent apprendre à analyser et à comprendre les images (numériques).
L’adoption de nouvelles réglementations se fait à un rythme bien plus lent que celui des progrès technologiques. C’est pourquoi une attitude critique de chacun reste indispensable : d’où provient l’image ? La source est-elle fiable ? Et avez-vous suffisamment confiance pour la partager ? En cas de doute, signalez-le directement à la source, par exemple via la fonction de signalement d’une plateforme sociale ou en contactant la rédaction d’une publication. Et si le doute subsiste, abstenez-vous de la diffuser. Ce n’est qu’en restant vigilants et en collaborant que nous pourrons préserver la sécurité et la fiabilité du monde numérique.