Le Pentagone s’est trouvé un nouvel allié : l’intelligence artificielle. Les géants comme OpenAI et Anthropic travaillent désormais avec le Département de la Défense des États-Unis pour améliorer sa réactivité face aux menaces. Ces outils ne servent pas d’armes, mais plutôt de conseillers numériques. « On accélère les étapes du processus décisionnel pour que nos commandants puissent réagir à temps et protéger nos forces », explique à TechCrunch Radha Plumb, directrice en charge de l’IA au Pentagone.
IA : un outil stratégique pour le Pentagone
Ce processus, connu sous le nom de « kill chain », désigne l’ensemble des étapes permettant d’identifier, suivre et neutraliser des menaces. Grâce à l’IA, ces étapes gagnent en réactivité, notamment pendant la planification et l’élaboration de stratégies. Jouer différents scénarios, évaluer les options ou encore analyser les compromis : voilà où l’IA montre toute son utilité, selon Radha Plumb.
Cette collaboration est récente et encadrée. Les entreprises comme OpenAI ou Anthropic ont assoupli leurs politiques d’utilisation en 2024, ce qui permet aux agences de défense d’exploiter leurs modèles, mais à une condition : leurs outils ne peuvent pas être utilisés pour causer du tort aux humains. « Nous sommes très clairs sur ce que nous acceptons ou refusons d’utiliser », assure la directrice.
Si l’IA aide à rendre les opérations plus efficaces, l’idée de confier des décisions létales à des machines reste un non-sens pour le Pentagone. « En matière de fiabilité et d’éthique, il y aura toujours des humains impliqués dans l’usage de la force », affirme-t-elle encore.
La question des armes autonomes est pourtant au cœur des débats. Certaines technologies utilisées par l’armée, comme les tourelles CIWS, sont déjà qualifiées d’autonomes, mais elles fonctionnent sous des régulations strictes. Selon Radha Plumb, l’idée d’une IA agissant seule dans des décisions de vie ou de mort relève plus de la science-fiction que de la réalité. « Ce n’est pas juste des robots qui agissent seuls, les humains sont toujours aux commandes à chaque étape », insiste-t-elle.
Cette alliance entre IA et défense est loin de faire l’unanimité. Si des employés de Google et Amazon ont protesté par le passé contre des contrats militaires, la communauté IA semble aujourd’hui plus réservée. Pour des experts comme Evan Hubinger, de chez Anthropic, travailler avec l’armée est nécessaire pour éviter les dérives. « Bloquer l’accès du gouvernement à l’IA n’est pas viable. On doit s’assurer qu’ils l’utilisent correctement », explique-t-il.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.