Passer au contenu

Bientôt, les drones militaires pourront choisir sur qui tirer

Pilotés jusque là par des opérateurs humains, les drones de l’armée américaine répondront dans un futur proche à une intelligence artificielle. Le Département de la Défense des États-Unis a récemment annoncé que la militarisation des IA était sur la bonne voie.

Crédit : U.S. Air Force photo/Staff Sgt. Brian Ferguson

Dans un communiqué tout ce qu’il y a de plus officiel, l’armée des États-Unis a fait savoir que le développement d’un drone capable de cibler véhicules et personnels sur les seuls ordres d’une intelligence artificielle suivait son bonhomme de chemin. Dans un futur proche, cela signifie que les drones pourront choisir, selon un algorithme, qui tuer, et ce sans qu’un humain ne soit impliqué (enfin si, mais pas là où il aimerait).

Qui doit presser la détente ?

Loin d’être d’actualité, ces drones militaires autonomes soulèvent déjà des questions en matière d’éthique, de légalité et de moralité. Les nombreux drones en opération dans les diverses forces armées internationales sont tous pilotés ou contrôlés par un être humain. Lorsque décision est prise de larguer une bombe ou d’éliminer un combattant ennemi, ce choix résulte d’un officier humain et est exécuté par un opérateur humain. Ce qui signifie qu’au bout du compte, la responsabilité de la mort d’une ou plusieurs personnes incombe à un autre être humain. Ce que l’on pourrait appeler ironiquement “l’humanité de la guerre”.

Doit-on donc laisser la décision de vie ou de mort à une machine, et ainsi supprimer cette “humanité” dans la guerre ?

Crédit : U.S. Air Force photo/Staff Sgt. Brian Ferguson/Flickr

Ronald Arkin, chercheur à l’Institute of Technology d’Atlanta en Géorgie, estime que l’automatisation des drones permettrait d’en finir avec les syndromes de stress post-traumatique et autres troubles psychologiques qui touchent les opérateurs de drones. Cependant, une étude publiée en 2014 sur le site JRSM Open avance qu’il n’est pas nécessaire d’être responsable de la mort de quelqu’un pour être traumatisé par cette dernière. L’exposition prolongée à des images violentes peut suffire à déclencher des troubles chez le spectateur.

Interrogé par Peter Lee, spécialiste en Risque et Sécurité à l’Université de Portsmouth, un opérateur de drone MQ-9 Reaper au sein de l’armée américaine expliquait “qu’il préférait laisser un insurgé s’enfuir, même s’il s’agit d’une cible importante, plutôt que de risquer de toucher des civils avec une frappe.”

Advanced Warfare or next-gen mass-killing ?

Au risque de paraître consensuel, l’utilisation de drones dirigée de A à Z par une intelligence artificielle va indéniablement changer la face de la guerre. Répondant à la logique du deep-learning et d’une flopée d’algorithmes, les drones pourront décider de s’attaquer non plus uniquement à des cibles militaires ou combattantes, mais également à des cibles civiles qui servent l’effort de guerre.

Concrètement, une station-service peut tout aussi bien fournir de l’essence aux véhicules civils, qu’aux engins militaires. Cet exemple n’est pas anodin, comme le souligne Peter Lee, puisqu’en 1999, lors de la guerre du Kosovo, décision a été prise par les militaires d’attaquer la raffinerie de Pancevo, pour la raison évoquée plus haut.

L’intelligence artificielle pourrait, à l’aide du deep-learning, pousser cette logique à son paroxysme. D’autant que les scientifiques et chercheurs en charge du développement d’I.A. pourraient rapidement devenir de nouvelles cibles dans le cadre d’un conflit armé. On pense notamment à Google, ou Facebook.

D’un point de vue légal, cela signifie que les autorités devront poser des balises à l’auto-apprentissage. Pire encore, lors des premiers déploiements de tels drones, les officiers supérieurs, les hommes politiques et une partie de la communauté scientifique devront déterminer la quantité de pertes civiles acceptables au fur et à mesure que la technologie se développe.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

9 commentaires
  1. "l’automatisation des drones permettrait d’en finir avec les syndromes de stress post-traumatique et autres troubles psychologiques qui touchent les opérateurs de drones"
    C’est hallucinant qu’il y ait des "personnes" qui s’épanouissent dans leur travail à réfléchir à ce genre de chose ! Horrible.

    J’imagine les réunions:
    " Les humains ont des remords quand ils tuent d’autres humains, comment résoudre ce "problème" ?
    – En évitant de tuer des humains ?
    – Nul, t’as rien compris ! On n’aurait même plus business ! Allez, dehors ! Autre idée ?"

    Dire qu’en plus ce sont des gens qui ont de grosses compétences pour travailler sur ça.  

  2. En France on s’interdit l’armement des drones, ce qui me semble un minimum. Pourquoi n’est-ce pas interdit au niveau international comme les armes bactériologiques ou les mini anti-personnelles ?

  3. Hmm, J’imagine que l’un des avantages, c’est qu’on ne peut pas pirater un drone qui n’utilise aucune forme de connexion pour être contrôlé.

  4. C’est totalement illégal au regard du droit internation…
    *Se remémore l’histoire de la Syrie ce week-end*
    … Ah pardon… Non rien.

  5. Armer les drones n’est pas un problème. Entre envoyer un homme avec une arme ou une machine avec une arme, perso je préfère qu’on envoie une machine.
    Dans l’idéal, le mieux serait de ne rien envoyer, mais quitte a choisir…

    En revanche, l’utilisation d’AI pour controler les drones est un vrai danger..

  6. On peut pirater n’importe quoi a partir du moment ou on peut communiquer avec ce n’importe quoi. A partir du moment ou ce n’importe quoi récupère des informations en fait.

  7. C’est comme ça que ça commence.
    Le danger des AI, ce n’est pas, contrairement a ce que beaucoup pensent, qu’elles se révoltent contre les humains. Le danger des AI, c’est que l’humain les programment pour tuer des humains, et qu’elles  fonctionnent.

  8. Lol, depuis quand les américains renonceraient à une technologie qui leur donne l’avantage ?
    Parce que ce n’est évidemment pas de stress post traumatique qu’il s’agit mais bien de guerre totale et de destruction et élimination de tout ce qui existe d’humain. Vu que nous, peuples occidentaux, sommes assez con pour dédouaner les fabricants d’appareil de ce que font les appareils qu’ils produisent ("c’est pas nous, c’est la machine", "il y a un bug, on est désolé" et autres variantes), des militaires ont trouvé le moyen de génocider une région du monde en éliminant civil, infrastructure et tout animal de plus de 30kg sans que cela leur retombe sur la figure.
    Je ne sais pas le sentiment le plus fort que cela me provoque entre une admiration sans bornes pour les marketeux qui ont imaginé le stress post-traumatique comme excuse ou le dégoût de l’insondable connerie des humains qui ont porté et nommé les connards qui promeuvent ces technologies de mort.

Les commentaires sont fermés.

Mode