Passer au contenu

Google invente un watermark pour les images générées par IA

DeepMind, la filiale de Google spécialisée dans l’intelligence artificielle, a dévoilé SynthID, une technologie de filigrane pour identifier les images générées par IA. Malgré son intégration actuelle au sein de l’écosystème Google, le dispositif soulève des questions sur son efficacité à grande échelle pour lutter contre la désinformation et les deepfakes.

Avec SynthID, DeepMind a trouvé le moyen d’intégrer un filigrane invisible dans les pixels des images générées par l’intelligence artificielle. Cette méthode serait capable de détecter des images fausses ou manipulées sans altérer la qualité originale de l’image. Cependant, la technologie n’est actuellement compatible qu’avec les systèmes de génération d’image natifs de Google.

Identifier les deepfakes… mais uniquement dans l’écosystème Google

Le programme SynthID est en effet intégré à la plateforme Vertex AI de Google, et pour le moment, il est uniquement disponible pour les grands partenaires d’entreprise qui utilisent le modèle Imagen de Google. DeepMind n’a pas divulgué les détails techniques de cette méthode de watermark, probablement pour empêcher que des personnes malveillantes ne trouvent un moyen de la contourner.

L’administration Biden a souligné à gros traits la nécessité de développer des moyens d’identifier les images générées par IA. Mais les experts sont divisés sur l’efficacité réelle de telles méthodes. Hany Farid, professeur en informatique à UC Berkeley, a qualifié le filigranage de « stratégie d’atténuation » contre les risques associés aux deepfakes, plutôt qu’une solution définitive.

De plus, la technologie actuelle fonctionne en circuit fermé au sein de l’écosystème Google. Quelle est l’utilité de cette fonctionnalité dans un environnement où coexistent plusieurs générateurs d’images basés sur l’IA ? Claire Leibowicz, chercheuse en IA, note que le filigranage pourrait aider à discréditer des images manipulées, mais il ne préviendra pas leur circulation en ligne. Elle ajoute que des méthodes pour éliminer les filigranes pourraient être développées, remettant en question la robustesse à long terme de cette stratégie.

Les technologies d’IA générative connaissent une évolution rapide, ce qui rend de plus en plus difficile la distinction entre les images synthétiques et celles produites sans intervention d’un système d’IA. Bien que cette avancée ouvre d’immenses possibilités créatives, elle soulève également de nouveaux risques, notamment la diffusion de fausses informations, volontairement ou non.

Il devient donc crucial de pouvoir identifier les contenus générés par l’IA. C’est essentiel non seulement pour informer les personnes lorsqu’elles interagissent avec les médias générés, mais également pour freiner la propagation de la désinformation. Dans ce contexte, DeepMind veut s’engager en faveur des informations de qualité et pour le maintien de la confiance entre créateurs et utilisateurs. Un vaste programme qui passe par le développement d’outils plus avancés pour identifier les images générées par l’IA, y compris leurs versions modifiées, pour qu’elles puissent être retracées.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Mode