Les 'deepfakes' se manifestent en ligne depuis un an ou deux. Il s'agit là d'une pratique, par laquelle des vidéos sont automatiquement manipulées avec l'aide de logiciels d'apprentissage profond. En bref, un programme apprend à reconnaître le visage de quelqu'un, avant de le placer sur le corps d'un tiers dans une autre vidéo.

Selon un rapport de l'entreprise de sécurité néerlandaiseDeeptrace, il y aurait actuellement quelque 14.678 vidéos hyper-truquées en circulation, ce qui représenterait un doublement par rapport à décembre 2018, où l'on en avait dénombré 7.964.

L'entreprise a effectué une recherche sur le nombre de vidéos et leur contenu pour en arriver à la conclusion que 96 pour cent des vidéos 'deepfake' se composent de pornographie. Il s'agit de femmes dans cent pour cent des cas. En guise de comparaison: au niveau du nombre de 'deepfakes' non pornographiques, seuls 39 pour cent des têtes/corps manipulés concernent une femme.

Pour déceler et comptabiliser les vidéos hyper-truquées, l'entreprise a recherché d'une part les sites web pornos, où l'on trouve des 'deepfakes', et d'autre part des forums en ligne tels Reddit et 4chan, ainsi que les canaux vidéo plus généraux comme YouTube ou Dailymotion. Par souci de clarté, il s'agit donc exclusivement de vidéos publiques.

Le fait que davantage de vidéos faussées se manifestent, est dû à ce que depuis les premières vidéos, la recherche a progressé et de nouveaux outils ont vu le jour pour manipuler automatiquement avec succès des vidéos ou photos. Il y a aujourd'hui aussi des endroits en ligne, où on réalise ce genre de vidéos moyennant paiement.

Même si la plupart des vidéos sont de nature sexuelle, Deeptrace évoque aussi d'autres objectifs. C'est ainsi que des vidéos 'deepfake' sont aussi utilisées pour de la manipulation politique. Autre tendance observée par l'entreprise: ce qu'on appelle le 'shallowfake', par lequel une vidéo est légèrement déformée, ce qui fait que certains propos ou actions apparaissent différemment.