Une étude menée par des chercheurs de l’université de Californie, de l’Illinois et de San Diego a fait l’effet d’une bombe dans le secteur de l’intelligence artificielle. Ils ont en effet réussi à contaminer une IA avec un malware que les antivirus ne parviennent pas à détecter.
Modèles malveillants
Dans le cadre de cette étude, les chercheurs ont « entraîné » AlexNet, une intelligence artificielle spécialisée dans la reconnaissance d’images, avec ce qu’on appelle un EvilModel, autrement dit une base de données contenant du code malveillant. Les capacités d’AlexNet n’en ont pas vraiment souffert, puisqu’elles ont baissé de 1 % seulement. Côté utilisateur, impossible de faire la différence.
Les spécialistes en sécurité ont ensuite inoculé un plus gros EvilModel : cette fois, les performances de l’intelligence artificielle ont reculé de 10 %, ce qui reste relativement indolore pour l’utilisateur. Le gros problème, c’est que ces modèles malveillants sont indétectables à l’heure actuelle par les antivirus…
Il faut savoir que la charge virale du malware ne s’active que lorsque l’application qui exploite l’IA est elle aussi infectée par un malware. Or, de plus en plus d’apps reposent sur l’intelligence artificielle, comme par exemple des apps de photos ou pour reconnaitre la voix.
Quant aux pirates, une possibilité de contamination pourrait être de proposer des modèles fonctionnels, mais discrètement infectés, sur les plateformes fréquentées par les développeurs (GitHub, par exemple). Ou en s’infiltrant dans la mise à jour d’une application… Voilà du travail pour les éditeurs d’antivirus.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.