Passer au contenu

Grok : Internet s’en donne à coeur joie avec l’IA d’Elon Musk

Des satires bon enfant aux détournements de (très) mauvais goût, le modèle d’IA générative débridé conçu par xAI a ouvert la voie à un torrent de contenus synthétiques qui relancent le débat sur la production d’images de personnes réelles.

Depuis la semaine dernière, les utilisateurs de Twitter/X disposent d’un accès gratuit au chatbot Grok d’xAI, l’entreprise d’Elon Musk spécialisée dans l’intelligence artificielle. Cet outil a vocation à concurrencer les produits d’OpenAI, comme son célèbre agent conversationnel ChatGPT ou son générateur d’images DALL-E. Mais contrairement à l’entreprise de Sam Altman, xAI n’a imposé que très peu de limites à son modèle multimodal, laissant aux utilisateurs la possibilité de générer des contenus parfois… discutables, voire carrément problématiques.

En l’espace de quelques jours, des tas d’images synthétiques générées par Grok ont fleuri un peu partout sur la toile, et notamment sur X. La plupart de ces images mettent en avant le niveau de performance de l’outil, qui est capable de générer des images photoréalistes et souvent très cohérentes avec les requêtes textuelles de l’utilisateur, même dans des cas de figure qui nécessitent un certain degré d’abstraction — un exercice où même les modèles les plus performants rencontrent souvent de gros problèmes.

Mais d’autres utilisateurs sont vite allés un peu plus loin. Pour se démarquer d’OpenAI, avec laquelle le PDG de Tesla, X et SpaceX est en conflit ouvert, les créateurs de Grok lui ont donné une “personnalité” irrévérencieuse, sans filtre, et sarcastique. Et surtout, le chatbot d’xAI est dépourvu de tout contrôle sur les thématiques sensibles, contrairement aux outils d’OpenAI et Google qui sont dotés de garde-fous limitant ce genre de requêtes et la désinformation qui peut y être associée.

Un torrent de détournements problématiques

Or, il se trouve que cela vaut aussi pour les images. Contrairement à DALL-E qui s’efforce de ne pas générer d’images de personnes réelles pour éviter la production de deepfakes, Grok n’a aucun problème à produire des images réalistes de célébrités. Forcément, les internautes s’en sont donné à cœur joie en représentant des personnalités, notamment politiques, dans des situations totalement aberrantes. Ce post du chercheur Ari Kouts en est une excellente illustration.

Le post ci-dessus n’a évidemment pas vocation à nuire à la réputation de qui que ce soit; l’objectif d’Ari Kouts est seulement d’illustrer ce donc Grok est capable. Mais ce n’est pas forcément le cas de tout le monde. Il suffit de naviguer quelques minutes sur X pour tomber sur des exemples ouvertement vulgaires, obscènes, insultants ou trompeurs que nous ne relaieront pas dans cet article, pour des raisons évidentes. Et la facilité avec laquelle un internaute mal intentionné peut désormais accéder à ce genre d’outil pose tout de même une myriade de questions juridiques et éthiques assez inconfortables.

On peut par exemple s’interroger quant à la légalité de cet outil dans le cadre de la loi française et européenne. Le GDPR interdit explicitement de traiter des données personnelles, y compris l’image d’une personne sans son consentement (voir articles 4, 5 et 17). Pourtant, Grok ne semble avoir aucun scrupule à moissonner des images un peu partout sur le web afin de les détourner. Le Code pénal et le Code civil français protègent également le droit des individus à préserver leur image et leur réputation. Mais Grok ne limite aucunement la capacité des internautes à produire des images potentiellement diffamatoires. Et dans une certaine mesure, on peut même considérer qu’il l’encourage à travers sa « personnalité » facétieuse.

Faut-il une loi plus spécifique ?

Certes, des utilisateurs n’ont pas attendu l’IA générative pour créer des contenus discutables ; c’était déjà tout à fait possible avec des outils plus traditionnels comme le célèbre Photoshop. En outre, Grok, est loin d’être le seul système basé sur l’IA qui permet de réaliser ce genre d’images. Mais désormais, n’importe qui peut le faire en quelques secondes et sans la moindre compétence technique, et ces manipulations sont même de plus en plus encouragées par la culture numérique.

Il sera donc intéressant de voir si les législateurs vont se pencher spécifiquement sur les systèmes qui sont capables de récolter et de détourner des images de personnes réelles. Ces pratiques méritent-elles d’être encadrées plus sévèrement, notamment à l’approche d’échéances politiques importantes comme des élections présidentielles ? Ou s’agirait-il au contraire d’une forme de répression de la liberté d’expression et d’innovation ? Autant de questions qui mériteront d’être étudiées sérieusement, dans un contexte où ces outils d’IA générative deviennent de plus en plus performants à chaque jour qui passe.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Mode