Passer au contenu

Grâce à cette IA, tout le monde peut figurer dans un film porno

Comment une banale application de face-swapping a entraîné une explosion de faux films pornos de célébrités. Pour le meilleur ? Disons plutôt pour le pire.

Daisy Riley dans une vidéo faites en utilisant FakeApp

Dans Brooklyn Nine Nine, Jake Peralta se plait à taquiner sa collègue Amy Santiago en détournant ses phrases alambiquées par un « Le nom de ta sextape ». Avec un simple algorithme d’apprentissage automatique, vous pourrez bientôt avoir la votre ou tiens, pourquoi pas celle de votre star préférée, quand bien même elle n’en aurait jamais réalisé (n’est pas Kim K qui veut).

C’est en décembre dernier que Motherboard repère ce redditeur se faisant appeler « deepfake ». Celui-ci partage joyeusement son passe-temps sur Reddit, à savoir face swapper des visages de célébrités dans des vidéos pornos. Certaines vidéos véritablement convaincantes – avec Gal Gadot, Maisie Wiliams ou encore Taylor Swift – n’ont nécessité qu’un algorithme d’apprentissage (machine learning), son ordinateur et quelques vidéos. Pour nourrir l’IA, il suffit d’une dizaine de photos, de quelques vidéos et l’algorithme se charge du reste, c’est-à-dire, créer un masque convaincant à échanger avec n’importe quel autre visage.

Un outil (trop) simple d’utilisation

Le visage de Gal Gadot échangé avec une actrice porno

Et ce qui devait arriver arriva : les utilisateurs en ont profité pour placer le visage d’actrices célèbres sur celui de star du porno. Deux mois plus tard, c’est l’épidémie : les fausses vidéos pornos de célébrités ont germé sur la toile et avec elle les applications permettant de les réaliser en un rien de temps. Si Deepfake assurait qu’il n’était pas donné à tout le monde de réaliser des vidéos dignes de ce nom, une âme charitable a créé une application pour les noob en informatique, très simple d’utilisation, FakeApp. son créateur, Deepfakeapp, s’est même fendu d’un tutoriel dans lequel il accompagne les futurs Fakeappers pas à pas.

Kristin Bell swapée

Deepfakes quant à lui a créé un subreddit (NSFW cela va s’en dire) sur lequel se retrouvent déjà plus de 15 000 abonnés. Deepfakes est même devenu le terme consacré pour nommer ces vidéos swapées par intelligence artificielle.

Fake celeb porno everywhere

L’application FakeApp repose d’ailleurs sur l’algorithme original de Deepfakes, mais avec quelques améliorations maison. « Cette application est destinée à permettre aux utilisateurs d’alimenter le pipeline de création des deepfakes – créer des données d’entrainement, des modèles d’entrainement, et créer des fake avec ces modèles – sans avoir besoin d’installer Python et autres logiciels », explique son créateur. Le tuto est désormais épinglé en tête du subreddit. La boucle est bouclée !

Mais Deepfakeapp n’entend pas en rester là, « l’application dans sa version actuelle est un bon début, mais j’espère la simplifier dans les jours et semaines à venir », explique-t-il.

Aux frontières du réel

Doit-on s’en inquiéter ? Depuis deux mois, les vidéos pullulent, certaines sont plus réussies que d’autres, Sophie Turner, Daisy Riley, Kristen Bell en ont fait les frais. Toutefois la technique n’est pas nouvelle, Hollywood l’a éprouvé à de maintes reprises, notamment avec Carrie Fisher dans Rogue One. D’ailleurs, un utilisateur de Reddit a entrepris de faire de même avec Fake Apps et le résultat est plutôt probant.

Les implications d’une telle innovation sont difficiles à percevoir, au-delà des effets pour les célébrités déjà bien habituées aux détournements et autres hoax et des velléités de revenge porn. La frontière entre le réel et le faux sera de plus en plus floue et difficile à percevoir à mesure que la technologie se perfectionnera.

Mettez cette technologie au service des fake news et vous pouvez ne serait-ce qu’entrevoir une ébauche que ce que la société de l’information et la société en général pourraient devenir, avec toutes les conséquences sur la politique, la justice, les médias, etc.

Parlons en à Charlie Brooker, tiens…

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

28 commentaires
  1. ça craint grave.
    Dans un futur proche, on ne pourra plus croire les vidéos. Tout sera taxé de fake news.
    ça craint, genre, vraiment grave.

    1. Il y aura peut être un système de “certificat d’authenticité” pour les vidéos… mais je partage ton inquiétude.

    2. Si çà aide l’humanité à se défier un peu plus de ce qui est “numérique” çà ne sera pas plus mal

      Par contre, ce serait aussi sympa de placer une actrice porno dans un vrai film

  2. @RageX : Tu peux m’envoyer quelques photos de toi ? J’suis tombé amoureux et j’ai des besoins maintenant <3

    1. soit pas traumatisé mec…
      arrête juste de dire de la merde j’éviterai de te démonter.
      aller, ++ le troll je te souhaite une bonne branlette! 😉

      1. ++ Pendant ce temps-là, n’hésite pas à préparer tes prochaines interventions !
        Parce que j’attends avec impatience ton premier commentaire sensé et objectif ! Ça sera un peu notre premier enfant quoi !

  3. … Entre ça et l’outil de adobe permettant de faire une “édition” de ce que raconte une personne sur une vidéo de sorte à lui faire dire autre chose de façon réaliste… Moi j’vous dis : planquez-vous oubliez les réseaux sociaux ça être rock’n roll !

      1. Ben c’est déjà fait: une parody porno cirule sur un site porn mettant en scèn e trump avec theresa may(beurk!) -:)

  4. Vous pensez serieusement que ce qui peut etre fait par une bande de petits malins pour zéro budget n’as pas déjà été fait depuis longtemps par l’industrie du cinéma/de l’information qui est une de celles qui brasse le plus d’argent ?

  5. C’est vraiment dommage, on a un outil super fun, qui, comme le montre l’exemple de Star Wars, permettra aux créateurs de se faire des fan-films absolument fantastiques ! Et tout ce que vous trouvez à dire dessus (mais je ne vous jette pas la pierre, c’est la bassesse et la médiocrité de la communauté de dégénérés de reddit en premier lieu qui sont responsables) c’est le porn (et les fake news parceque c’est la mode)…

  6. Tant mieux. “La frontière entre le réel et le faux sera de plus en plus floue ” ca rends le réel moins crédible, je trouve.
    Si un jour, la sextape d’une célébrité fuite, elle sera perdue au milieu de tous les fakes…

    Et, je trouve que ça aide à se dire que “on a tous des boobs ou une teub en dessous de nos vêtements”. Le porno désacralise le sexe 😉

  7. la seule bonne nouvelle là dedans, c’est que si une de tes sextapes se retrouve sur le net, tu peux accuser l’application ! :p

    1. Damned, quelqu’un a découvert le truc…. Effectivement, cette appli sert juste à “dédouaner” certains scandales qui vont probablement éclater au vu de l’explosion de délation actuelle.

      Voila aussi pourquoi on nous “prépare” gentiment avec les ”fakes” news…

      Comment ça je suis complotiste ?

      Avec toute cette technologie, je pourrais être une mite en pull-over

  8. D’un côté, c’est peut être une bénédiction pour les Stars et Autres, en cas de risques de revenge porn ou autres, ces stars n’ont qu’a noyer le net de fake pour que les vrais passe plus facilement à la trappe, quitte à noyer une vrai dans un fake pour qu’elle passe à la trappe …
    Si le vrai est noyé dans le faux, les plus pervers se contenteront du faux et même si le net à son lot de motivés, les vrais sextapes sortiront moins …

Les commentaires sont fermés.

Mode