Passer au contenu

L’IA inonde Internet de pédopornographie (et c’est un gros problème)

Une association britannique alerte les autorités publiques face à la prolifération d’images pédopornographiques.

Après le Pape en doudoune Balenciaga et le baiser improbable entre Donald Trump et Vladimir Poutine, l’IA générative appliquée aux images inquiète. Au-delà des fakes news, c’est la pornographie qui est pointée du doigt. Les progrès techniques des logiciels deviennent de plus en plus saisissants, et la question du revenge porn et des deepfakes non consenties cristallise bon nombre de tensions.

À ce phénomène déjà problématique, s’ajoute le fléau de la pédopornographie. Grâce à MidJourney, Stable Diffusion et Dall-E, certains internautes mal intentionnés sont en effet capables d’intégrer des visages d’enfants sur des contenus pédocriminels, ou de rajeunir artificiellement des célébrités dans des situations d’abus sexuels. Des images plus vraies que nature, qui ont rapidement attiré l’attention d’une association britannique.

“Nos pires cauchemars sont devenus réalité”

Pour réaliser l’ampleur du phénomène, l’Internet Watch Foundation (IWF) a récolté et analysé pendant un mois plus de 11 000 images générées par IA trouvées sur des forums du dark web. Parmi elles, 3 000 représentent des scènes illégales de pédopornographie. Un constat particulièrement préoccupant, estime Susie Hargreaves, la dirigeante du WIF au micro du Guardian : “Plus tôt cette année, nous avions averti que les images par IA pourraient bientôt devenir impossibles à différencier des images pédophiles, et que nous pourrions voir ces images proliférer. Nous avons maintenant dépassé ce point“.

Selon l’association, certaines IA seraient utilisées pour “rajeunir” des personnalités adultes, ou pour incruster des visages d’enfants sur des images d’abus sexuels. Les adolescents ne sont pas les seuls concernés, puisque cela concernerait aussi des enfants très jeunes, et même des bébés dans certains cas.

Le rapport évoque aussi un outil capable de dénuder n’importe quelle personne à partir d’une photo, en remplaçant ses vêtements par un corps nu, sans le consentement de cette dernière. Le phénomène n’est pas nouveau, puisqu’en Espagne, une plainte a été ouverte après qu’une dizaine de jeunes filles de 11 à 17 aient reçu des photos d’elles modifiées.

Fausses photos, vraies victimes

Encore plus dérangeant, certaines IA entraînées pour générer du contenu pédopornographique le sont avec de véritables enfants victimes d’actes pédocriminels diffusés en ligne. Les enquêteurs évoquent ainsi avoir trouvé un fichier de 500 images mettant en scène une véritable victime d’agression sexuelle âgée de neuf ans. Un modèle d’IA personnalisé permettait ensuite de créer encore plus d’images la mettant en scène. “Des enfants qui ont été violés dans le passé sont maintenant intégrés dans d’autres scénarios parce que quelqu’un, quelque part, veut voir ça“, déplore Susie Hargreaves.

Alors que les premiers modèles payants dédiés à la pédocriminalité commencent à émerger, l’IWF espère mettre le sujet sur la table l’occasion du sommet mondial de l’IA, organisé par le Premier ministre britannique Rishi Sunak du 1er au 2 novembre prochain. Rappelons qu’en France, le droit condamne la possession, la consultation ou la transmission d’image pédopornographique, qu’elle soit réelle ou artificielle.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Source : BFMTV

1 commentaire
  1. Alors certes ce n’est certainement pas agréable de trouver une photo de soi dénudé en ligne ayant pour origine une IA (ou non), mais finalement à partir du moment où ces images se mettent à circuler il ne sera plus possible de faire la différence entre vrai et faux.

    Ce qui signifie qu’une victime potentielle de harcèlement ou de chantage pourra de plus en plus dire ce n’est pas moi, prouvez donc que c’est moi … Bon c’est un peu simpliste comme raisonnement mais on verra d’ici quelques mois /années ce que ça donne, car maintenant que c’est parti il n’y a je pense pas de retour en arrière possible …

Les commentaires sont fermés.

Mode