Google intègre un filigrane dans les images d’IA
Le géant internet Google s’est mis à doter d’un filigrane certaines images sur le web. Le filigrane, invisible à l’œil humain, devrait faire en sorte que les systèmes de détection distinguent les images réelles de celles générées par l’intelligence artificielle.
Lorsqu’on recherchait récemment encore une image appropriée pour un article consacré à la collision de satellites (ou au risque que cela arrive), c’était la douche froide. Dans aucune banque d’images, on ne trouvait une illustration réaliste de ce genre de scénario-catastrophe. On se tournait en fin de compte vers l’Image Creator de Microsoft Bing. Et voilà comment l’image ci-dessus prenait forme.
SynthID
L’intelligence artificielle s’améliore toujours plus dans la production d’images ne se distinguant pas de la réalité. Google en est aussi consciente et voit les dangers de cette tendance. Le géant internet prépare par conséquent des outils qui reconnaissent si une photo a été prise avec l’aide de l’IA ou pas. Le plus récent, SynthID, contribue à cette détection en dotant les images générées par l’IA d’un filigrane (invisible).
Il va de soi qu’il est possible d’apposer un filigrane classique sur des images d’IA, mais il est trop facile à supprimer, selon Google. Il s’avère aussi voyant. Avec SynthID, le géant internet permet d’intégrer directement le filigrane dans les pixels d’une image, afin de rester invisible. Un système de détection de Google le perçoit par contre.
Pour l’instant, guère de détails ne filtrent à propos du nouvel outil. Mais Demis Hassabis, CEO de Google DeepMind, informe le site technologique The Verge que le filigrane n’impacte pas la qualité d’image. Il s’adapte en outre automatiquement lorsque l’image est recoupée ou réduite.
Systèmes de sécurité
Hassabis insiste aussi sur le fait que les premiers tests de SynthID ne seront que lentement déployés. Dans cette phase, l’outil est uniquement disponible pour un nombre restreint de clients de Vertex AI, qui utilisent aussi le générateur d’illustrations d’IA Images de Google. Lorsque Google aura fait la démonstration que la technologie fonctionne, ‘il ne restera plus qu’à la mettre à niveau, à la partager avec d’autres acteurs appréciant l’outil, et à en donner accès à davantage de clients’, apprend-on.
Il va de soi que Google n’est pas le seule firme à vouloir ‘dompter’ l’intelligence artificielle. Récemment encore, Meta et OpenAI notamment ont annoncé l’incorporation de systèmes de sécurité supplémentaires dans leur IA. Plusieurs entreprises technologiques utilisent par exemple déjà le protocole C2PA, qui utilise des métadonnées cryptographiques pour labelliser le contenu généré par l’IA.
En collaboration avec KIJK Magazine, sources: The Verge, BBC News
Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici