Passer au contenu

ChatGPT n’est pas une menace existentielle pour l’humanité, selon une étude

Des chercheurs ont tenté de déterminer si les grands modèles de langage pourraient effectivement conduire à la ruine de l’humanité – mais ils n’ont pas trouvé le moindre signe de « capacités émergentes » qui pourrait donner du crédit à ces scénarios catastrophe.

Est-il possible qu’une intelligence artificielle devienne consciente, échappe à tout contrôle et commence à agir en toute autonomie ? Et le cas échéant, pourrait-elle réaliser spontanément des actions qui en feraient une menace existentielle pour l’humanité ? Des chercheurs allemands et britanniques ont tenté de tirer cette affaire au clair dans une étude en bonne et due forme, et si l’on se fie à leurs conclusions, il n’y a absolument pas de raison de céder à la panique.

Cette question ne date pas d’hier ; il s’agit d’un lieu commun qui pointe régulièrement le bout de son nez depuis les années 1970. Mais il faut admettre qu’il a pris une nouvelle dimension depuis que le machine learning a commencé à se démocratiser, et à fortiori depuis la sortie de ChatGPT. En découvrant cet agent conversationnel capable de discuter avec des humains de façon assez convaincante, de nombreux observateurs ont estimé que notre espèce s’était aventurée sur une pente glissante, et qu’il fallait impérativement mettre en place des mesures prophylactiques pour éviter qu’un programme renégat ne décide d’éradiquer notre espèce sur un coup de tête – par exemple en prenant le contrôle de l’arsenal nucléaire mondial.

« La crainte est qu’à mesure que les modèles deviennent de plus en plus grands, ils deviennent capables de résoudre de nouveaux problèmes que nous ne pouvons pas prévoir actuellement, et par extension, qu’ils acquièrent des capacités dangereuses, notamment le raisonnement et la planification », résume Harish Tayyar Madabusi, informaticien à l’Université de Bath.

« Ces inquiétudes concernant la menace existentielle posée par les LLM ne se limitent pas aux non-experts et ont été exprimées par certains des meilleurs chercheurs en IA du monde entier. », ajoute-t-il. Pour rappel, en mars 2023, 1300 personnalités ont signé une lettre ouverte demandant une « pause » des recherches en intelligence artificielle par principe de précaution.

Parmi les signataires, on retrouvait notamment certains chercheurs éminents… et aussi un certain Elon Musk. Ce dernier a régulièrement tenu des discours plutôt alarmistes sur cette thématique, et cette prise de position de l’homme le plus riche du monde a sans doute contribué à alimenter la paranoïa ambiante que l’on constate aujourd’hui.

Les LLM sont « contrôlables, prévisibles et sûrs »

Mais les derniers travaux de l’équipe de Madabusi, constituée de chercheurs britanniques et allemands, peignent un tableau très différent. Cette étude publiée dans le cadre de la 62e convention de l’Association for Computational Linguistics conclut en effet que les grands modèles de langage (LLM) sont « intrinsèquement contrôlables, prévisibles et sûrs ». « Notre étude montre que la crainte qu’un modèle fasse quelque chose de complètement inattendu, innovant et potentiellement dangereux n’est pas fondée », écrivent les auteurs.

Pour arriver à cette conclusion, le groupe dirigé par la professeure Iryna Gurevych, de l’Université Technique de Darmstadt, a conduit une longue série d’expériences. L’objectif était de tester la capacité des LLM à présenter ce que les chercheurs appellent des « capacités émergentes », c’est-à-dire à apprendre spontanément à réaliser des tâches qu’ils n’ont jamais rencontrées auparavant et pour lesquelles ils n’ont pas été spécifiquement entraînés.

Chatgpt
ChatGPT et consorts sont très doués pour construire des phrases, mais l’éradication de l’humanité semble largement hors de leur portée.  © Jonathan Kemper – Unsplash 

Et à chaque fois, les résultats allaient dans le même sens. Les tests ont confirmé que les LLM sont très doués pour manier les mots et pour suivre des instructions explicites. En revanche, ils se sont systématiquement révélés incapables d’aller au-delà. Après avoir conduit des milliers de tests divers et variés sur un grand nombre de modèles différents, l’équipe n’a pas trouvé le moindre élément permettant d’affirmer qu’un programme de ce genre pouvait spontanément aller au-delà des directives qui lui ont été fournies, ou tenter d’acquérir de nouvelles compétences en toute autonomie.

Certes, l’équipe indique que ces modèles sont effectivement capables de produire des résultats inattendus. Mais ces comportements surprenants des LLM ont systématiquement pu être reliés à la façon dont ils ont été programmés ou à la manière dont les instructions lui ont été communiquées. En d’autres termes, tout indique que l’idée d’une IA renégate omnipotente est complètement fantaisiste pour le moment.

Un catastrophisme contre-productif

Par contre, les auteurs de l’étude insistent tout de même sur le fait que même si ces agents conversationnels ne vont certainement pas oblitérer notre espèce d’ici quelques mois, ils ne sont pas totalement inoffensifs pour autant. L’équipe rappelle notamment que ces outils disposent d’un potentiel destructeur considérable lorsqu’ils sont utilisés par des personnes mal intentionnées.

Mais cela vaut également pour des tas d’autres technologies. Les chercheurs estiment donc qu’il faut absolument garder la tête froide, aussi bien du côté du public que des régulateurs. En effe, ce catastrophisme ambiant a tendance à détourner l’attention des vrais problèmes posés par les LLM et représente aussi un frein considérable à la démocratisation d’une technologie capable de nous rendre de fiers services.

« Bien qu’il soit important de s’attaquer au potentiel d’utilisation malveillante de l’IA, comme la création de fake news et le risque accru de fraude, il serait prématuré d’adopter des réglementations fondées sur ces menaces existentielles telles qu’elles sont perçues aujourd’hui », précise Madabushi. « Nos résultats ne signifient pas que l’IA ne constitue pas du tout une menace. Nous montrons plutôt que la prétendue émergence de capacités de réflexion complexes associées à des menaces spécifiques n’est étayée par aucune preuve et que nous pouvons tout à fait contrôler le processus d’apprentissage des LLM. Les recherches futures devraient donc se concentrer sur d’autres risques posés par les modèles », conclut-il.

Le texte de l’étude est disponible ici.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

2 commentaires
  1. ce ne sont pas de vrais intelligence artificiel, ce sont juste de gros fichier de texte.
    quand le programme pourra faire des choix seul la on pourra s’inquiète.

    après ce qui pourrai arriver :
    militaire : chatgpt comment je pourrais arrêter la guerre en Russie de façon efficace ?
    chatgpt : la meilleur manière c’est la bombe atomique, voulez-vous la lancer ?
    militaire : OUI
    chatgpt : lancement effectuer
    militaire : non je me suis trompé annule
    chatgpt : je comprend pas votre question

    fin du monde

  2. “Elon Musk” signataire… Comme de part hasard…

    Ce sont eux qui sont dangereux à vouloir systématiquement nous faire croire qu’il y a un doute qu’une IA puisse être ce qu’ils fantasmes. Un générateur est et ne sera rien d’autre qu’un algorithme qui met des mots bout à bout. Basta.

    Ce qui est dangereux c’est de nous laisser penser que ces mots sont de fait d’une intelligence. Plus c’est mystérieux, mieux ça se vend.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Mode