Passer au contenu

Intelligence artificielle : saurez-vous détecter tous ces deepfakes ? (quizz)

D’après l’entreprise de biométrique iProov, 99,9% des gens sont désormais incapables d’identifier tous les deepfakes qui leur passent devant le nez. Un chiffre qui témoigne d’une tendance assez préoccupante.

Les deepfakes produits par des systèmes à base de machine learning sont devenus incroyablement performants en l’espace de quelques années, à tel point que le commun des mortels a désormais presque incapable d’identifier ces images synthétiques susceptibles d’être utilisées à mauvais escient.

C’est en tout cas ce qui ressort d’une petite étude de l’entreprise de biométrie britannique iProov, repérée par TheNextWeb. La firme a proposé à 2000 citoyens britanniques et américains de se soumettre à un test dont l’objectif est de passer en revue un certain nombre d’images pour identifier celles qui ont été générées par des modèles d’IA générative. Et les résultats ont été encore plus catastrophiques que prévu.

Une capture d’un deepfake d’Emmanuel Macron publié par FrenchFaker sur YouTube. © French Faker

Avant de se prêter au jeu, les candidats étaient pour la plupart assez sûrs d’eux; 60 % d’entre eux disaient avoir confiance dans leur capacité à identifier les trucages. Mais au final, 99,9 % se sont laissés berner par au moins une de ces images synthétiques !

Certes, il ne s’agit pas d’une étude de grande ampleur. De plus, le test d’iProov est très court et donc pas franchement représentatif d’un point de vue statistique. Par conséquent, il convient de prendre ce chiffre avec des pincettes.

Mais quoi qu’il en soit, il témoigne tout de même d’une tendance particulièrement alarmante. Il y a deux ans à peine, des chercheurs américains à l’origine d’une étude similaire ont observé que les candidats avaient échoué à identifier les visages synthétiques dans 48,2 % des cas. Un chiffre déjà préoccupant à l’époque, mais qui n’a fait qu’augmenter depuis, avec tout ce que cela implique pour le grand public.

L’IA générative, pour le meilleur et pour le pire

Cette tendance est notamment due à la démocratisation de l’IA générative. N’importe qui peut désormais générer des images potentiellement trompeuses en quelques clics sans compétences techniques particulières. La montée en puissance de ces outils facilement accessibles est en train de générer un vrai tsunami de deepfakes, parfois humoristiques et bon enfant, mais aussi susceptibles d’alimenter une campagne de désinformation ciblée — avec des conséquences parfois énormes.

On se souvient notamment de l’affaire du « faux Brad Pitt », où un escroc a réussi à soutirer plusieurs centaines de milliers d’euros à une Française en usurpant l’identité de la superstar américaine grâce à des outils de ce genre. Même si la pauvre victime est devenue la risée des réseaux sociaux à cause de sa soi-disant naïveté, l’enquête d’iProov montre bien qu’il est de plus en plus difficile de se prémunir contre ce type d’arnaque.

Plus que jamais, il est donc crucial de faire très attention à la provenance des images partagées sur le Web, et notamment sur les réseaux sociaux où les trucages peuvent rapidement échapper à tout contrôle.

Si vous souhaitez faire vous-même l’expérience, le petit test d’iProov est disponible à cette adresse. Saurez-vous identifier tous les faux visages sans vous tromper ?

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Source : TheNextWeb

Mode