Passer au contenu

Phishing, robot tueur, porno truqué… tout ce que les malfaiteurs pourront réaliser grâce à l’IA

Des experts ont étudié les problèmes que l’IA pourrait poser dans les cinq ans à venir. Et les moyens de les circonscrire.

Vous vous demandez ce que des personnes malintentionnées pourraient trafiquer avec de de l’IA ? Des experts ont étudié la question. Et comme on pouvait s’y attendre, la liste de réponses est longue… Première chose à retenir : l’IA va baisser très nettement le coût de certaines attaques informatiques. Pour l’heure, créer un mail de phishing un minimum subtil nécessite d’enquêter un peu sur la cible. Mais avec de l’IA, cela ne sera plus nécessaire : elle se chargera elle-même de cartographier rapidement le réseau social et professionnel d’une personne afin de générer des messages qui auront l’air de provenir d’un proche.

Le règne du fake

Deuxième menace grandissante : la falsification d’éléments audio et vidéo. On a d’ailleurs déjà pu constater les performances de l’intelligence artificielle dans ce domaine. Après avoir, grâce à l’IA, précisément modélisé la façon dont Obama bouge les lèvres lorsqu’il parle, des chercheurs de l’université de Washington ont ainsi pu produire ce fake incroyablement réaliste.

D’autres menaces sont  totalement inédites.  Les auteurs du rapport évoquent ainsi l’implantation d’une bombe dans un robot-laveur capable de traquer une cible précise.

On a sous estimé l’importance de leur évolutivité. Ce n’est pas seulement que l’IA peut accomplir certains tâches aussi bien que les humains, c’est qu’elle peut le faire à bien plus grande échelle.

Dans le cas de la surveillance par exemple, l’IA pourra non seulement se charger d’étudier les images des caméras à la place des humains mais elle pourra surtout en étudier beaucoup plus. Avec toutes les conséquences qui en découlent si la surveillance a pour objectif, par exemple, de traquer des minorités oppressées.

Un cadre éthique à développer

Heureusement, les chercheurs ne se contentent pas de lister les terribles dangers qui nous attendent au tournant. Ils suggèrent également plusieurs solutions pour lutter contre ces dérives:

1/ Les chercheurs doivent se montrer transparents sur la façon dont leurs travaux peuvent être détournés et utilisés à mauvais escient.

2/ Les acteurs de l’IA doivent apprendre des experts en cybersécurité les moyens de mieux protéger leurs systèmes.

3/ Un cadre éthique relatif à l’IA doit être développé et pris en compte.

4/Davantage de personnes doivent être impliquées dans les débats relatif à l’IA. Pas seulement des scientifiques et des décideurs politiques mais aussi des éthiciens, des entrepreneurs et des citoyens.

5/ Les décideurs politiques doivent être informés des menaces par des experts techniques.

Il serait temps en effet que la sphère politique prenne la mesure de ces changements. L’affaire des deepfakes a bien montré que les filous, eux, connaissaient déjà bien le sujet.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

1 commentaire
  1. "Il serait temps en effet que la sphère politique prenne la mesure de ces changements"Déjà que les politiques ne savent pas trop ce qu’est l’intelligence alors ne leur demandons pas trop de se pencher sur l’intelligence artificielle, c’est perdu d’avance !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Mode