Passer au contenu

Google part à la chasse aux deepfakes porno

L’augmentation des contenus pornographiques et du revenge porn généré par l’IA inquiète jusque chez les GAFAM.

Hier, Google a publié un long billet de blog pour annoncer de nouvelles mesures dédiées à la protection des utilisateurs en matière de deepfakes explicites. L’entreprise indique avoir consulté plusieurs mois durant des “experts et des victimes“, afin de mettre sur pied un plan d’action qui soit le plus efficace, et le plus réactif possible.

Faciliter la suppression de contenus

Face à la prolifération d’images pornographiques fabriquées via l’intelligence artificielle — phénomène qui touche en très grande majorité les femmes et minorités de genre, à l’image de Taylor Swift, dont le faux revenge porn a résonné jusque dans les couloirs de la Maison-Blanche — Google veut accélérer les démarches de signalement et de suppression. Comme pour le droit à l’oubli, les contenus ciblés ne disparaîtront pas totalement du web, mais seront déréférencés, afin de “protéger les internautes” concernés.

Concrètement, Google ne se contentera plus de simplement supprimer des contenus lorsque ces derniers sont signalés, mais “chercheront également à filtrer tous les résultats explicites sur des recherches similaires à la personne concernée“, promet le géant américain. Une fois les deepfakes supprimés, les algorithmes se chargeront ensuite de faire un travail de fond pour empêcher les doublons d’être publiés. De leur côté, les sites ayant été plusieurs fois épinglés pour suppression de deepfake illégaux se verront rétrogradés dans les résultats de recherche.

Les requêtes intégrant le nom de personnes en particulier seront aussi passées au crible par Google, qui entend réduire de 70% la visibilité de ce type de contenu. Une promesse qui pour le moment est loin d’avoir été appliquée. Un simple tour sur le moteur de recherche par image combinant les mots “célébrités” et “nudité” suffit à constater que le problème est encore loin d’avoir été réglé.

Trop beau pour être vrai ?

Sur le papier, l’initiative de Google est intéressante. Dans les faits, elle paraît compliquée à mettre en place. La suppression des deepfake et du revenge porn — qu’il soit généré avec le concours de l’IA ou non — est un processus long et souvent fastidieux, qui nécessite généralement des dizaines de signalements de la part des victimes, sans que celles-ci aient la certitude de voir leur requête aboutir un jour. L’entreprise américaine n’est pas la seule à jouer les mauvais élèves sur le sujet — on se souvient en 2020 de l’enquête du journaliste Nicholas Kristof pour le New York Times, qui plongeait dans les méandres du revenge porn pédocriminel sur Pornhub.

Pour autant, Google s’impose depuis des années comme le plus grand moteur de recherche au monde. C’est donc logiquement vers lui que les regards se tournent lorsqu’il est question de montrer l’exemple. L’année dernière, la twitcheuse Kaitlyn Siragusa avait dû se battre contre un OnlyFans qui publiait régulièrement des deepfakes explicites d’elle, sans que ses plaintes n’aboutissent.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Mode