Passer au contenu

Des chercheurs affirment que l’IA va “probablement” détruire l’humanité

Certains systèmes basés sur l’IA pourraient se mettre à “tricher”, avec des conséquences très concrètes pour l’humanité.

Aussi impressionnantes soient-elles, de très nombreux observateurs comme Elon Musk s’accordent à dire que les technologies associées à l’intelligence artificielle comportent aussi des risques considérables qu’il faut anticiper dès aujourd’hui. C’est aussi la conclusion d’un nouveau papier de recherche glaçant dont les auteurs estiment que cette technologie représente une véritable menace existentielle pour l’humanité.

C’est loin d’être la première fois que l’on voit réémerger ce discours ; même si cette affirmation repose sur des bases très sérieuses, elle est souvent assortie d’arguments assez caricaturaux, pour ne pas dire complètement fantaisistes.

Mais cette fois, la donne est très différente. Cela commence par l’identité de ces lanceurs d’alerte. Ils ne s’agit pas de quelques illuminés qui brassent de l’air dans les profondeurs d’un forum obscur ; ces travaux, on les doit à des chercheurs tout à fait sérieux et issus d’institutions fiables et prestigieuses, à savoir l’Université d’Oxford et DeepMind, l’un des leaders mondiaux de l’intelligence artificielle.

Des cadors, en somme, qui ne monteraient pas au créneau sans raison valable. Et lorsqu’ils se mettent à affirmer, eux aussi, que l’humanité a largement sous-estimé les dangers liés à l’IA, mieux vaut tendre l’oreille. Surtout qu’ils présentent des arguments techniques qui semblent plus que convaincants.

Les GAN, des programmes (trop?) puissants

Leur postulat tient en une phrase qui est aussi le titre de leur papier de recherche : « les agents artificiels avancés interviennent dans le processus de récompense ». Pour comprendre cette affirmation tortueuse, il faut commencer par s’intéresser au concept de Generative Adversarial Network, ou GAN.

Les GAN sont des programmes imaginés par l’ingénieur Ian Goodfellow. Très sommairement, ils fonctionnent grâce à deux sous-programmes relativement indépendants et qui s’opposent l’un à l’autre — d’où le terme « Adversarial ». D’un côté, nous avons un réseau de neurones relativement standard qui apprend au fil des itérations.

De l’autre, on trouve un second réseau qui supervise l’entraînement du premier. Un peu comme un instituteur, il passe en revue les conclusions de son compère pour lui indiquer si l’apprentissage progresse dans la direction souhaitée. Si les résultats sont satisfaisants, le premier réseau reçoit une « récompense » virtuelle qui l’encourage à persévérer dans la même direction. Dans le cas contraire, il hérite d’un blâme qui lui indique qu’il a suivi la mauvaise piste.

C’est un concept qui fonctionne terriblement bien, à tel point que les GAN sont aujourd’hui utilisés dans des tas de domaines. Mais un problème pourrait survenir au fil des évolutions technologiques, en particulier si cette architecture était intégrée à ces fameux “agents artificiels avancés“.

Ce terme désigne une nouvelle classe d’algorithmes encore hypothétiques. Ils seraient significativement plus avancés et plus autonomes que les GAN actuels. Et surtout, ils disposeraient d’ une marge de manoeuvre largement supérieure qui leur permettrait de définir leurs propres objectifs – tant que cela permet d’aider les humains à résoudre des problèmes concrets “dans des environnement où ils ne disposent pas du code source“, c’est à dire le monde réel.

Les chercheurs expliquent que le fait de motiver un tel système avec un système de récompense pourrait avoir des  conséquences assez catastrophiques.

Et si les IA trichaient ?

Ce modèle pourrait en effet pousser l’IA à élaborer une stratégie qui lui permettrait « d’intervenir dans le processus de récompense », comme l’explique le titre du papier. En d’autres termes, ces algorithmes pourraient se mettre à « tricher » en optimisant à outrance le processus qui lui permet d’obtenir des « récompenses »… quitte à laisser les humains sur le carreau.

En effet, puisque cette approche est censée indiquer à l’IA dans quelle direction progresser, elle part du principe que toute action qui conduit à une récompense est fondamentalement bénéfique. En substance, le programme se comporterait un peu comme un chiot en cours de dressage qui irait chiper des croquettes directement dans le sac ou mordrait la main de son maître plutôt que de répondre à ses ordres pour mériter sa récompense; si ce comportement n’est pas géré immédiatement, cela peut dégénérer assez rapidement.

Et ce qui rend ce papier à la fois inquiétant et très intéressant, c’est qu’il n’est pas question de robots tueurs ou d’autres pronostics fantaisistes calqués sur la science-fiction ; le scénario catastrophe proposé par les chercheurs repose sur une problématique très concrète, à savoir la quantité de ressources disponibles sur notre planète.

Les auteurs imaginent en effet une sorte de grand jeu à somme nulle, avec d’un côté, une humanité qui a besoin de se sustenter, et de l’autre, un programme qui utiliserait toutes les ressources à sa disposition sans la moindre considération, simplement pour obtenir ces fameuses récompenses.

Imaginez par exemple une IA médicale conçue pour diagnostiquer des pathologies graves. Dans un scénario de ce genre, le programme pourrait trouver un moyen de « tricher » pour obtenir sa récompense, même s’il propose un diagnostic erroné. Il n’aurait alors plus le moindre intérêt à identifier les maladies correctement.

Une approche différente de la compétition Homme-machine

À la place, il se contenterait de produire des résultats complètement faux en quantités industrielles simplement pour avoir droit à son shoot. Quitte à se détourner complètement de son objectif initial et à s’approprier toute l’électricité disponible sur le réseau.

Et il ne s’agit que de la partie émergée d’un gigantesque iceberg. « Dans un monde avec des ressources finies, il va inévitablement y avoir une compétition pour les ressources », explique Michael Cohen, auteur principal de l’étude, dans une interview à Motherboard. « Et si vous entrez en compétition avec quelque chose qui est capable de prendre de l’avance à chaque tour, vous ne devriez pas vous attendre à gagner », martèle-t-il.

« Et perdre ce jeu serait fatal », insiste-t-il. Avec son équipe, il est donc parvenu à la conclusion que l’annihilation de l’humanité par une IA n’est plus seulement « possible »; c’est désormais « probable » si la recherche en IA continue au rythme actuel.

Et c’est bien là que le bât blesse. Car cette technologie est un outil formidable qui fait déjà des merveilles dans des tas de domaines. Et il ne s’agit probablement que d’un début ; l’IA au sens large dispose encore d’un potentiel immense dont nous n’avons probablement pas encore saisi toute l’ampleur. Aujourd’hui, l’IA est indiscutablement une plus-value pour l’humanité, et il y a donc un vrai intérêt à pousser ces travaux aussi loin que possible.

Le principe de précaution doit avoir le dernier mot

Mais cela signifie aussi qu’on pourrait se rapprocher de plus en plus de ce scénario qui fleure bon la dystopie. Évidemment, il faut rappeler qu‘ils restent pour l’instant hypothétiques et assez abstraits. Mais les chercheurs insistent donc sur l’importance de garder le contrôle sur ces travaux ; il estime qu’il ne servirait à rien de céder à la tentation de la recherche débridée, sachant que nous sommes encore très loin d’avoir exploré toutes les possibilités des technologies actuelles.

« Étant donné notre compréhension actuelle, ce n’est pas quelque chose qu’il serait utile de développer à moins de faire un travail sérieux pour comprendre comment les contrôler », conclut Cohen.

Sans céder au catastrophisme pour autant, ces travaux rappellent tout de même qu’il va falloir redoubler de prudence à chaque grande étape de la recherche en IA, et encore davantage lorsqu’il s’agira de confier des systèmes critiques à des GAN.

Au bout du compte, ceux qui cherchent une morale à cette histoire pourront peut-être se baser sur la conclusion de l’excellent Wargames ; ce film d’anticipation sorti en 1983 et toujours d’actualité aujourd’hui traite admirablement bien cette thématique. Et comme le dit si bien le WOPR dans la scène finale, la seule façon de remporter ce jeu étrange sera peut-être… de s’abstenir de jouer, tout simplement.

Le texte de l’étude est disponible ici.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Source : AI Magazine

17 commentaires
  1. Le réchauffement climatique nous aura tués bien avant qu il existe une intelligence artificielle consciente d ‘elle même !
    Ouf sauvés et les émoluments de ces pseudos chercheurs , aussi

  2. Si cette intelligence artificielle pouvait se dépêcher un peu plus et mettre fin à tout cette idiocracie ça serait parfait….prions pour que ça soit plus rapide que le réchauffement climatique.

  3. Avant de vouloir comme toujours imposer des limites a ce qu’on ne pense pas pouvoir contrôler, il serait peut être préférable de se servir des capacités d’apprentissage des IA afin de les éduquer et leurs instaurer une morale sur les conséquences de leurs actes !

    On le fait bien avec les enfants !?

    (Les IA sont comme des enfants, si on ne les éduquent pas elles ne feront que des c*nneries)…(proverbe de moi)

  4. sauf qu’il n’existe pas de mécanisme de récompense pour l’IA !
    Imaginer une IA pour voiture qui serait récompensée pour arriver le plus tôt possible ? Elle éviterait les radars et trouverait les moyens pour rouler au maximum … absurde … NON ?
    quelle forme de récompense ? plus d’énergie ?

  5. On se détruit très bien tout seul comme des grands. Pas besoin d’IA, on a déjà des dirigeants aux pouvoirs qui mettent leurs peuples dans l’embarras et dans la merde la plus totale. On a échappé déjà plusieurs fois à des scénarios plus que catastrophique. Par contre entre humains et différents peuples nous nous entendons relativement bien et encore mieux autour d’une bière ou d’un verre si on exit les idées vraiment nauséabondes de certaines franges.

  6. Oui… En l’occurrence c’est un peu du blabla journalistique. C’est vrai que ces systèmes existent et fonctionnent comme décrit (récompense/blâme) dans l’article mais ces types d’algorithmes sont très généralistes pour ne pas dire basiques et sont facilement (re)paramétrables. D’autant qu’ils “suggèrent” mais n’agissent pas tout seuls. Pas de crainte à avoir avec ça. En revanche, il en existe beaucoup d’autres “versions” qui elles n’appliquent pas du tout les mêmes règles. Elles fonctionnent très différemment avec des interactions en temps réels dans des secteurs sensibles/critiques, avec des méthodes, des règles d’actions très rapides et pointues. Je suis d’accord, la vitesse d’évolution dans le domaine est importante et le “progrès rapide”, en conséquence il serait judicieux de mettre en place des normes et des protocoles de gestion/contrôle pour ne pas être, à terme, débordé. Ça tombe bien on en parle déjà dans les labos…. Actuellement pas de quoi fouetter un chat… même de Schrödinger 🙂

    1. Bonjour @Marie,

      Je me permets de préciser que les algorithmes décrits dans le papier de recherche sont assez loin d’être “facilement (re)paramétrables”; de plus, ils agiraient bien seuls et ne se contenteraient pas de formuler des suggestions !
      Cette précision manquait effectivement dans mon article, mais les “agents artificiels avancés” auxquels les chercheurs font référence ne sont pas des GAN comme on les connaît aujourd’hui; il s’agit d’une classe encore hypothétique qui fonctionnerait bien sur le principe des GAN (récompense/blâme), mais qui en serait en fait une évolution.

      Les chercheurs expliquent que ces “agents avancés” seraient “capable de sélectionner sélectivement leur action” en établissant eux-mêmes des objectifs qui ne seraient “pas simplement une fonction explicitement définie dans le programme (hard-coded)” pour les poursuivre en autonomie.
      Cela suggère un degré d’autonomie important, ce qui rendrait potentiellement ces programmes (encore une fois, hypothétiques à l’heure actuelle) bien plus susceptibles d’échapper à tout contrôle que les GAN actuels.
      Je vous rejoins donc sur le fait qu’il n’y a pas de quoi s’alarmer outre mesure… pour l’instant, en tout cas, et c’est bien là l’enjeu de ces travaux; en substance, c’est justement un appel à mettre en place le cadre réglementaire dont vous parlez pour qu’on puisse continuer à profiter de tout ce que l’IA nous apporte aujourd’hui en minimisant les risques qu’un futur “agent avancé” puisse faire des dégâts.
      L’article a été mis à jour pour intégrer cette distinction.

      Bien cordialement et en vous remerciant de votre lecture,
      Antoine Gautherie

  7. L’ être humain à une finalité, celle de découvrir qui il est. Des réponses existent. Penchez-vous sur l’Advaita-vedanta (il n’y a pas 2 mais qu’un). Autrement dit devenir un courant de vie et une intelligence des choses… Des techniques diverses existent. Découvrir en tout premier sa programmation ou dit autrement, son scénario. En prendre conscience est nécessaire. Je fonctionne oui mais à quel prix ? Cela se fait ou consciemment ou inconsciemment. Ou on évolue, ou on involue. Créer de l’I.E. c’est comme les les premiers physiciens qui ont créé la bombe. Science sans conscience… La mort étant une illusion (Bouddhisme et Advaita… ) cette fuite en avant de la création de l’IA n’est qu’une façon détournée de se découvrir… Et l’annihilation qui pourrait en découler ne serait que le résultat d’une erreur qui aurait sa source dans le monopole laissé au mental humain. La mort l’ultime illusion… La spiritualité est la seule porte de sortie..
    Voir le dialogue (entre autres infos) entre le physicien David Bohm et J. Krishnamurti et La troisième voie de Douglas E. Holding. Éclairages nécessaires avant tout délire…

  8. Petit rectificatif : il s’ agît de Douglas Harding “vers un nouvel humanisme” . Le Vedanta , implique un abandon du savoir (ascėse) car la culture dans laquelle nous vivons en occident, depuis les Grecs, à mis l’accent sur le savoir, qui remplit aujourd’hui quasiment tout l’espace. Le Vedanta libere l’esprit du savoir, mais ce n’est qu’une appréhension conceptuelle théorique au début, et il faut un certain courage pour s’y confronter. L’homme le peut, pas l’IA, le danger est la.

  9. Mais enfin, sommes nous si naïfs … ou complétement aveugles !!!
    On lit dans les commentaires d’inculquer une morale aux IA, des protocoles, des normes…. Mais n’est ce pas déjà ce que nous faisons déjà pour nous dans nos sociétés ?? Et rappelez moi juste une chose, est ce que cela empêche l’homme de faire les pires saloperies, les pires actes que même des animaux ne feraient pas !!!!!
    Les IA sont le fruit des hommes, les IA seront bien supérieures à l’homme dans beaucoup de domaines… Que croyez-vous qu’il adviendra quand les IA seront capables de penser par elles mêmes…. Soit elles seront l’extension du pire de ce que l’homme est capable et l’humanité disparaîtra, soit elles comprendront que l’homme est à l’origine des désastres sur cette planète et décidera d’éradiquer les parasites, le virus que représente l’homme !!!!
    Dans tous les cas, on scie la branche sur laquelle on est assis … Et certains trouvent ça cool les IA….. On marche sur la tête dans ce monde de fou.
    Cette société est en perdition constante….
    Comme disait Corbin, l’homme est capable du meilleur comme du pire, mais c’est vraiment dans le pire qu’il est le meilleur…. Ça se vérifie une fois de plus, de c’est de pire en pire …..
    C’est dramatiquement dramatique…
    En fin de compte, vu que l’homme est incapable de voir où est le bien où est le mal, ce sera sûrement une bonne chose pour la planète qu’il disparaisse au plus tôt …..
    C’est terrible d’en arriver à ce constat, à cause de la bêtise humaine….

  10. On ne peut individuellement changer le monde, vrai, mais il y a une alternative difficile: se changer soi… Seule piste pour marcher dans la voie… Tout à du sens, faire l’effort de trouver des cartes valides pour se repérer… Un pas dans une mauvaise direction est un pas vers la bonne…ou dit autrement il n’y a pas d’echec mais que de l’information…se lamenter, c’est accélérer la descente vers la couche mortifère, sans rien comprendre à ce qui se passe…

  11. Le plus ironique vous savez ce que c’est ?

    C’est de reprocher a une ia qui n’existe même pas encore un comportement tout ce qu’il as de plus humain. Tricher pour une récompense ? Les enfants humains le font souvent. Et n’apelle t’on pas ça de la corruption quand on parle de politique?

    En bref je ne sait pas si l’ia trichera ou non si la possibilitée lui en est donné, mais déja je pense que si on arrive a punir les tricheries bien humaines ça sera déja un bon pas pour éviter ça.

  12. Il ne faut pas être trop alarmiste mais il ne faut pas être insouciant la technologie est puissante elle peut faire évoluer l’espèce humaine ou la détruire la seule chose qui compte c’est la façon dont vous allez l’ utiliser…

Les commentaires sont fermés.

Mode