Passer au contenu

Microsoft et OpenAI renforcent les protections contre les cybercriminels utilisant ChatGPT

Microsoft et OpenAI ont détaillé l’exploitation des modèles de langage par des groupes de cybercriminels soutenus par des États. Ces entités utilisent des technologies avancées pour affiner leurs cyberattaques, notamment pour la recherche sur des cibles, l’amélioration de scripts et le développement de techniques d’ingénierie sociale.

Les groupes de pirates saisissent toutes les opportunités technologiques à leur disposition : plusieurs d’entre eux exploitent désormais les capacités des modèles de langage à grande échelle (LLMs) pour renforcer leurs opérations malveillantes. Microsoft et OpenAI ont détecté que des groupes soutenus par des États comme la Russie, la Corée du Nord, l’Iran et la Chine se servent de ces outils pour différents aspects de leurs attaques, allant de la recherche d’informations sur leurs cibles à l’amélioration de leurs techniques d’ingénierie sociale.

Les cybercriminels se tournent vers l’intelligence artificielle

Parmi les exemples cités, le groupe Strontium, associé au renseignement militaire russe, utilise les LLMs pour approfondir ses connaissances dans des domaines comme les protocoles de communication par satellite et l’imagerie radar. De son côté, le groupe nord-coréen Thallium se sert également de ces technologies pour cibler des organisations et élaborer des campagnes de phishing plus convaincantes. Ces développements indiquent une tendance croissante à l’adoption de l’IA par les acteurs malveillants pour optimiser leurs attaques.

Face à cette montée en puissance des cyberattaques assistées par IA, Microsoft souligne l’importance de l’utilisation de l’intelligence artificielle pour renforcer les mesures de défense. « L’objectif du partenariat entre Microsoft et OpenAI, y compris la publication de cette recherche, est de garantir une utilisation sûre et responsable des technologies d’IA comme ChatGPT, en respectant les normes éthiques les plus élevées pour protéger la communauté contre une éventuelle mauvaise utilisation », explique Microsoft.

La société travaille sur le développement d’un « Security Copilot », un assistant IA conçu pour aider les professionnels de la sécurité en ligne à identifier les brèches et à mieux comprendre les innombrables signaux et données générés par les outils de cybersécurité. Cette initiative s’inscrit dans une démarche plus large visant à repenser la sécurité logicielle suite à d’importantes attaques contre le cloud Azure et d’autres infrastructures critiques.

Bien que l’utilisation actuelle de l’IA dans les cyberattaques reste encore limitée, Microsoft met en garde contre des cas d’utilisation plus sophistiqués à l’avenir, comme par exemple l’imitation de la voix. L’entreprise et OpenAI n’ont pas encore détecté d’attaques significatives exploitant les LLMs, mais elles prennent d’ores et déjà des mesures pour désactiver tous les comptes et actifs associés à ces groupes de pirates informatiques. La collaboration avec la communauté des défenseurs pour partager les informations sur ces menaces émergentes est nécessaire pour anticiper et contrer les tactiques malveillantes.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Mode