Passer au contenu

Elon Musk revient à la charge contre les robots tueurs

Le fondateur et CEO de SpaceX et 115 autres PDG interpellent les Nations Unies contre les robots tueurs.

Terminator 3, Le soulèvement des machines

Elon Musk réitère son cri d’alarme deux ans après avoir demandé leur interdiction : « Les armes létales autonomes menacent de devenir la troisième révolution dans la guerre ».

Dans une lettre ouverte adressée aux Nations Unies dimanche par The Future of Life Institute, le boss de SpaceX et Tesla et inventeur de l’Hyperloop, rejoint par plus de 110 autres PDG d’entreprises leaders dans l’intelligence artificielle et la robotique, s’alarment de ces armes autonomes, communément appelés « robots tueurs », et demandent leur interdiction pure et simple.

Des robots tueurs bientôt aux mains de terroristes ?

« Une fois développées, les armes offensives autonomes permettront des conflits armés à une échelle jamais vue auparavant et à des vitesses difficiles à concevoir pour les humains », interpellent ces chefs d’entreprise, dont le co-fondateur de DeepMind (Google), Mustafa Suleyman

Et c’est en leur qualité de spécialistes que ces firmes décident d’agir : « En tant qu’entreprises mettant au point les technologiques d’intelligence artificielle et de robotique qui pourraient être détournées pour développer des armes autonomes, nous nous sentons particulièrement responsables pour tirer le signal d’alarme », peut-on lire en introduction de cette lettre ouverte.

« Elles peuvent être des armes terrifiantes, des armes que des dictateurs et des terroristes utilisent contre des populations innocentes, et des armes piratées à des fins funestes ».

Ne pas ouvrir la boite de Pandore

Depuis 2013, l’ONU s’intéresse à l’utilisation des IA à des fins militaires. En 2015, après une première lettre ouverte dont Elon Musk était également signataire avec Stephen Hawking, les Nations Unies ont constitué un groupe d’experts gouvernementaux dédié à la question des « systèmes d’armes létales autonomes » dont l’objectif est de se positionner, notamment en demandant éventuellement leur interdiction. L’ONU doit se prononcer cette année. Mais les réunions prévues sur le sujet à partir de lundi à Genève ont été reportées à novembre prochain.

« Nous n’avons pas beaucoup de temps pour agir. Une fois ouverte cette boîte de Pandore, elle sera difficile à refermer. C’est pourquoi nous (vous) implorons de trouver le moyen de nous protéger de ces dangers », s’inquiètent les signataires.

Pour Elon Musk, c’est un fait établi depuis longtemps : « L’IA est « potentiellement plus dangereuse que les bombes nucléaires ».

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Source : Source

11 commentaires
    1. OUI 100% d’accord le mec à les capacités intellectuelles et financière pour mener à bout des projets qui font réellement avancer notre monde moderne (dans la bonne direction j’en doute… Je suis encore à la cafetière italienne dans cette ère qui prône la Nespresso…). Il y a surtout une chose qui m’interpelle… Les entreprises qui développe ces I.A. demande aux gouvernements de stopper/anticipé la mauvaise utilisation de celle-ci… L’ère des drones à la Oblivion c’est pas pour demain… Mais peut être qu’après demain il sera trop tard… Et un Virus d’un groupe activiste ou terroriste pourra foutre un sacré dawa! Rien à voir avec l’I.A., il y a des vidéos qui circule sur internet comment prendre le contrôle d’un drone de loisir…). Bref j’ai pas hâte d’arriver à ce point de non retour…

  1. La cybernétique pourrait aidé contre la différence entre l’homme et la machine. Comme dans le film
    “I Robot” avec Will Smith.

  2. Le problème c’est qu’Elon Musk n’est ni chercheur en IA ni roboticien. Aussi doué qu’il soit, il parle de choses qu’il ne connait pas.
    Il n’y a pas besoin d’IA pour faire un robot tueur.
    Bref, il n’y a vraiment pas de raison de s’inquiéter.

    1. Il parle explicitement des robots tueurs autonomes, pas des machines contrôlées à distance par des soldats. Je pense que c’est plus le fait de donner aux robots la liberté de choisir qui éliminer ou pas dont met en garde cet institut.

    2. Non il n’est pas chercheur mais j’ose espérer qu’il sait s’entourer des bonnes personnes. De plus, il a surement eu des discussions intéressantes au sujet de l’autopilot de Tesla quand vient le choix pour la voiture “intelligente” de choisir entre tuer les 5 piétons sur la route ou le conducteur…

    3. On en reparlera quand des robots autonomes feront des attentats et que tu auras perdu de la famille. Elon Musk ne donne pas une opinion, il donne des faits. Les robots tueurs autonomes VONT exister que tu le veuilles ou non et ils seront présents dans tous les camps et pas seulement chez les “gentils”. On parle ici de réglementer leur utilisation et par la même occasion de comprendre comment les combrattre.

    4. les voitures autonomes ont besoin d’une IA, mais pas les robots tueurs?
      Pourtant combattre de façon autonome demande encore plus d’intelligence que de simplement conduire une voiture sur un terrain balisé, avec un environnement où les autres conducteurs sont censés bien conduire.

      1. Les “voitures autonomes” ont besoin d’une IA. pas les voitures au sens large. Les “robots tueurs autonomes” ont besoin d’une IA, mais il est tout à fait possible d’imaginer des “robots tueurs” pilotés à distance par des humains.

        Contrairement à quelques idées reçues, une IA est un mot au sens très large qui peut désigner un programme très basique. Un robot pourvu d’une “IA” n’est pas forcément dangereux. En réalité une très grande partie des appareils que l’on utilise au quotidien sont pourvus d’IA plus ou moins polyvalentes.

        La seule question ici est, faut il ou non rendre des armes capables de tuer seules (sans le besoin d’intervention humaine). Cela ouvre la porte à de nombreuses potentielles failles de sécurités et détournements.
        “combattre” de façon autonome n’est pas réellement un défis au fond, technologiquement parlant cela n’a rien de difficile à mettre en place.

  3. C’est certain , la bêtise humaine sera toujours plus forte que la bombe atomique !…Elon Musk craint une évolution et non une révolution “à la Terminator” !… Cependant, une évoltion inverse peut se produire : elle décrite dans la saga de la Grande ST ( Société Terrestre ) imaginée par TJ Bass ( éditions Opta) : les armes deviendront tellement autonomes qu’elles exigeront des garanties de plus en plus draconiennes pour fonctionner : elles deviendront des ronds-de-cuir encore plus tatillons que leurs utilisateurs humains !… Il existe un exemple au Moyen-Âge avec l’emploi de l’arbalète, dont le développement fut sévèrement freiné par la menace d’excommunication !…

Les commentaires sont fermés.

Mode