Passer au contenu

Entre deepfakes et vrais humains, la majorité des observateurs ne font pas la différence

Lors d’une étude récente, un panel de cobayes s’est montré incapable de distinguer les deepfakes des vrais humains. Pire : ceux-ci ont même semblé plus réalistes selon certaines métriques !

Ces dernières années, personne n’a pu échapper au phénomène des deepfakes, ces vidéos altérées pour faire ressembler un personnage à quelqu’un d’autre. Cette technologie continue encore et toujours de progresser, et les réseaux neuronaux qui s’en chargent sont aujourd’hui capables de produire des résultats plus vrais que nature…. et peut-être même un peu trop.

C’est en tout cas ce qui ressort à la lecture des travaux de chercheurs américains. Ces derniers ont testé 300 volontaires avec l’objectif de déterminer si, oui ou non, ils étaient en mesure de distinguer un visage entièrement synthétisé par une IA d’une véritable photo d’humain en chair et en os.

Chacun a du visionner un jeu de 128 images tirées d’un même pool de 400 images synthétiques, certaines réelles, certaines factices et synthétisées par l’IA. Elles étaient réparties équitablement en termes de diversité pour éviter tout biais raciste, sexiste. Et les résultats sont lourds de sens : ils ont déterminé qu’en moyenne, les participants étaient parvenus à identifier moins de la moitié des visages synthétiques, 48.2% pour être précis.

L’humain a de plus en plus de mal à faire la différence

Ce 1,8% d’écart par rapport à la moyenne pourrait sembler anecdotique, mais c’est une donnée loin d’être négligeable sur le plan mathématique. Car d’un point de vue strictement statistique, elle représente un point de basculement à grande échelle; cela signifie qu’en règle générale, ces visages artificiels deviennent tellement sophistiqués et réalistes qu’ils peuvent duper notre cerveau la majorité du temps.

Ces résultats sont corroborés par deux expériences complémentaires sur les mêmes sujets. Lors de la seconde, les chercheurs ont soumis le panel au même protocole, mais seulement après leur avoir dispensé un cours sur les indices qui peuvent trahir un deepfake. Et même avec cette “triche”, les participants ne sont parvenus à identifier que 59% des fausses images; un chiffre encore trop bas pour espérer identifier les faux de manière fiable.

Enfin, et c’est peut-être le résultat le plus impressionnant, les participants ont du attribuer une note de réalisme à chaque image. Sur cette échelle, 0 correspondait à un organisme qui ne ressemblerait pas du tout à un humain, tandis que le 10 désignait un vrai humain. En moyenne, ce score de réalisme était supérieur de 7,7%  pour les deepfakes !

Un risque gigantesque de désinformation massive

C’est une réalité qui peut être abordée de deux façons distinctes. D’un côté, les chercheurs reconnaissent qu’il s’agit d’un “vrai succès” en termes de recherche en intelligence artificielle. Et sachant à quel point les différentes applications de l’IA sont interconnectées, cela démontre également les progrès de cette technologie dans son ensemble, et pas seulement dans le cadre de cette niche.

Pourtant, les premières conséquences qui viennent à l’esprit sont loin d’être encourageantes. En effet, s’ils peuvent tout à fait servir de simples divertissements, c’est rarement le cas dans la réalité. En pratique, cette technologie est aussi très utilisée dans des contextes très difficilement défendables.

Par exemple, on ne compte plus les exemples de détournements de discours politiques, qu’ils soient bon enfant, dégradants, ou utilisés à des fins de désinformation. On peut aussi citer la pornographie à base de deepfakes qui peut faire des dégâts considérables pour les personnes dont l’identité a été ainsi usurpée.

Pour toutes ces raisons, les chercheurs estiment que les auteurs de ces programmes devront juger de la balance bénéfice-risque de ces systèmes. Cela impliquera de répondre à une question importante : faut-il vraiment développer cette technologie simplement parce que la possibilité existe, surtout avant d’avoir identifié un intérêt concret qui ne relève pas du divertissement ?

Un risque démultiplié par le contexte

Car comme l’expliquent les chercheurs, le revers de la médaille, c’est que “n’importe qui peut désormais créer du contenu synthétique convaincant sans connaissances spécialisées”. C’est donc une porte ouverte à de véritables désastres en termes de désinformation.

Imaginez simplement le contexte actuel autour de la Russie, où tous les acteurs sont sur le qui-vive et prêts à réagir au quart de tour; il suffirait qu’un petit malin réussisse à rendre viral un deepfake particulièrement convaincant d’un président en plein discours guerrier pour mettre le feu aux poudres sur Internet le temps que l’information soit débunkée.

Les chercheurs précisent aussi que le niveau de réalisme de ces deepfakes a aussi tendance à impacter les vraies photos. En effet, dans ce contexte où il devient de plus en plus difficile de faire la part des choses, on peut également se mettre à douter de la véracité de documents pourtant authentiques, ce qui peut avoir des effets tout aussi désastreux que l’inverse.

Le papier de recherche est disponible ici.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

1 commentaire
  1. C’est juste hallucinant !!!! On sait qu’on va dans le mur …. Qu’est ce qu’on attend pour interdire toute cette farce ??
    Tout est de pire en pire dans cette société en perdition constante…. C’est dramatique…. Et dire que l’homme est censé être l’être le plus intelligent sur cette planète. Tous ces neurones pour en arriver là…… Affligeant, navrant….

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Mode