Les deepfakes sont des vidéos qui, à l'aide de l'apprentissage machine, sont manipulées de telle sorte que le visage de quelqu'un est placé sur le corps d'une autre personne, ou que quelqu'un tienne d'autres propos en faussant le lipping. La technologie existe depuis fin 2017 et est dans certains cas à peine différenciable d'une vidéo authentique.

Pour identifier plus aisément ce type de vidéo hyper-truquée, Google va désormais partager un ensemble de centaines de vidéos qu'elle a réalisées l'année dernière avec des acteurs embauchés, conjointement avec leurs versions truquées. L'entreprise a dans ce but collaboré avec Jigsaw, son propre incubateur technologique auprès de la société-mère Alphabet. Début de cette année déjà, Google avait libéré un gisement de données similaire se focalisant sur la voix synthétisée.

Les vidéos ont été réalisées avec de la technologie aujourd'hui librement disponible. Google a l'ambition de continuer d'étendre son gisement de données, au fur et à mesure que la technologie évoluera.

Le FaceForensics Benchmark, un programme de détection de vidéos manipulées conçu par l'université technique de Munich et l'université Federico II de Naples, a d'ores et déjà repris le gisement dans son projet.