Meta montre comment l’AI convertit du texte en vidéo

© Meta AI
Pieterjan Van Leemputten

Dans une démo, Mark Zuckerberg a montré comment Meta crée des vidéos rudimentaires sur base d’un descriptif textuel. En quelque sorte un pendant de Dall-E, mais pour la vidéo.

Plus tôt cette année, Meta, la société-mère de Facebook, avait déjà introduit Make-A-Scene permettant, tout comme avec Dall-E ou Midjourney, de décrire quelque chose au moyen d’un texte, après quoi l’AI en crée une image. A présent, elle va encore un pas plus loin avec Make-A-Video, où la même chose se produit, mais avec une vidéo AI.

Il ne s’agit actuellement pas encore d’une application que vous pouvez vous-même tester. Sur Facebook, Zuckerberg partage de cours extraits d’un ours en peluche qui se dessine lui-même, d’un robot sur une planche de surf ou d’un vaisseau spatial en train d’atterrir. Du point de vue graphique, cela ressemble un peu à des images des années 80 parce que la résolution est encore assez basse, mais le fait que cela soit généré entièrement par l’intelligence artificielle, c’est stupéfiant.

Générer des images sur base de l’AI soulève également pas mal d’aspects sensibles. Il existe en effet le risque qu’un système adopte certains stéréotypes, par exemple en présentant une infirmière comme une femme ou un médecin comme un homme, parce que ce genre de système se laisse piloter par des images existantes. En même temps, il y a aussi un risque d’abus du fait que ce type de technologie permet facilement de se livrer à de la manipulation d’images.

En plus de cette annonce, Meta a aussi publié un rapport de recherche donnant plus de détails sur son travail. La société déclare que ce genre de système AI repose sur des ensembles de données, mais est également ouvert à des réactions ultérieures afin d’affiner son projet de recherche.

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire