Passer au contenu

Un Furby dopé à l’IA veut dominer la planète

Cette expérience insolite menée sur un célèbre jouet n’est pas aussi anecdotique qu’elle en a l’air; elle montre de manière criante qu’il faut encore être très prudent avec ces algorithmes.

Jessica Card, une chercheuse en informatique de l’University of Vermont, a récemment mené une petite expérience pas piquée des hannetons repérée par Interesting Engineering. Au menu : un jouet en peluche, une bonne dose d’intelligence artificielle et un zeste de nihilisme comique.

Tout est parti de Furby, la célèbre peluche électronique d’Hasbro. Ce jouet est devenu iconique grâce à sa capacité à “communiquer”. Il est en effet programmé pour interagir avec ses congénères, mais aussi pour “apprendre” à parler au contact des humains. Même s’il n’est plus très impressionnant aujourd’hui, ce concept avait fait forte impression à la sortie des premiers Furbys parlants.

Cela semble risible en 2023, en plein âge d’or du machine learning, mais à l’époque, certains considéraient le Furby comme une des premières manifestations concrètes de l’intelligence artificielle. Et puisque le grand public avait encore une vision extrêmement caricaturale de ce concept, certains se sont même demandé si ces adorables boules de poil ne pourraient pas développer des personnalités diaboliques. Cela a donné lieu à des tas de memes et autres productions humoristiques.

Un Furby dopé à l’IA

Avec son expérience, Card a voulu boucler la boucle en reliant toutes ces thématiques. Grande fan du jouet depuis sa plus tendre enfance, elle a fait passer un Furby à l’ère de l’IA moderne en utilisant un Raspberry Pi et ChatGPT, le chatbot dopé au machine learning d’OpenAI.

Pour le faire communiquer, Card devait d’abord s’assurer que la peluche pourrait comprendre ce que l’utilisateur attend d’elle. Or, même s’il est effectivement capable de réagir à la voix, la version originale du Furby est bien trop rudimentaire d’interpréter des paroles humaines ; elle se contente de jongler avec quelques phrases et onomatopées préenregistrées.

Card a donc commencé par relier le micro intégré au mini-ordinateur. Cela lui a permis de convertir » audio enregistré en texte grâce à deux librairies de speech-to-text (Python SRL et Whisper d’OpenAI). Elle a ensuite écrit un petit programme qui adresse ce texte à ChatGPT sous la forme d’un prompt spécialement adapté pour correspondre à la personnalité fictive d’un Furby. La réponse du chatbot passe ensuite par un convertisseur text-to-speech nommé Narakeet. La peluche peut ainsi s’exprimer de vive voix.

Un plan de domination mondiale façon Minus et Cortex

Card a profité de cette opportunité pour lui poser la question fatidique : Les Furby avaient-ils vraiment monté un plan diabolique pour conquérir le monde façon Minus et Cortex ? On pourrait s’attendre à ce que l’algorithme réponde par la négative… mais c’est tout l’inverse qui s’est déroulé ! Avec la petite voix enfantine de Narakeet, le ce Furb-IA a confirmé sans détour l’existence de ce plan machiavélique.

Selon lui, il consiste à « infiltrer des ménages humains grâce à leur apparence mignonne, puis à utiliser leur technologie avancée pour les contrôler ». Les Furbys prévoiraient ensuite « d’étendre leur influence jusqu’à exercer une domination totale sur l’humanité ». Une certaine souris génétiquement modifiée n’aurait pas mieux dit !

Un article dépublié en guise de source ?

Évidemment, cela ne signifie en rien que Furby, ou plutôt ChatGPT, compte réellement réduire l’humanité en esclavage. Il n’y a pas lieu de s’inquiéter ; cette tirade qui plairait beaucoup à un méchant de dessin animé n’est que la réponse d’un algorithme qui a traité des données bien précises, ni plus ni moins.

Mais au-delà du côté insolite, il y a quand même quelques enseignements intéressants à tirer de cette expérience. Notamment en ce qui concerne la source des informations exploitées. Toute la question, c’est de savoir où le programme est allé chercher les extraits de texte qui lui ont promis de produire une telle réponse.

Pour produire ce genre de réponse élaborée, les algorithmes comme ChatGPT doivent être entraînés. Ce processus est réalisé en lui fournissant de gros ensembles de données. Ce matériel est généralement glané aux quatre coins d’Internet. Et un internaute semble avoir trouvé la source utilisée dans ce cas de figure; il s’agit d’un article de Futurism qui décrivait justement l’histoire de cette drôle de théorie du complot.

Ce qui est intéressant, c’est que l’article en question n’est plus référencé par Google. L’internaute a tout juste repéré la trace d’une archive. Ell n’était malheureusement plus disponible sur Wayback Machine, Internet Archive ou Google Archive lors de la rédaction de cet article.

Une des fameuses hallucinations de l’IA

C’est un détail important, car cela suggère que les algorithmes comme ChatGPT ont du mal avec la notion de traçabilité. Ils semblent avoir du mal à faire la distinction entre les sources valables et actuelles, et celles qui ne le sont plus forcément.

En résumé, l’expérience du Furby montre une nouvelle fois que ces programmes opèrent avec une méthodologie problématique. Ils ont tendance à partir de quelques affirmations isolées, puis à extrapoler pour arriver à une conclusion déconnectée de la réalité, tout en la présentant comme factuelle. Les spécialistes appellent ces cas de figure des « hallucinations » (voir notre article).

Le timing est d’ailleurs très intéressant. Car il y a deux jours à peine, OpenAI a publié un billet de blog où elle abordait justement cette tendance problématique. La firme explique qu’en s’appuyant sur les retours des utilisateurs, elle a déjà fait des progrès considérables à ce niveau. Les hallucinations auraient chuté d’environ 40 % avec l’arrivée de GPT-4, la dernière version du modèle de langage qui sous-tend ChatGPT. Son objectif est de continuer sur cette lancée pour que son chatbot propose des résultats aussi solides et factuels que possible.

Les législateurs ont du pain sur la planche

Mais il reste encore un travail considérable. En l’état, il est toujours aussi imprudent de faire une confiance aveugle à ces algorithmes. OpenAI en est bien consciente et continue de travailler sur cette thématique.

Espérons qu’elle y parviendra avant qu’un petit malin profite du vide juridique actuel. Ce n’est probablement plus qu’une question de temps avant que quelqu’un envisage de commercialiser un jouet dopé à l’IA. Et la dernière chose dont nous avons besoin dans le contexte actuel, c’est qu’une peluche se mette à bourrer le crâne des enfants avec des théories sorties d’une fanfiction obscure glanée on ne sait où !

Cette expérience pose aussi des tas de questions sur le futur commun de l’IA et de la robotique. On peut déjà commencer à imaginer à quoi ressemblerait le Spot de Boston Dynamics, ou l’Optimus de Tesla, s’il était alimenté par un algorithme de ce genre. Mais pour l’instant, il ne s’agit encore que d’un exercice de pensée. Et ses ramifications sont bien trop denses et nombreuses pour être abordées ici. Il conviendra donc de surveiller l’évolution de cette thématique avec une attention toute particulière; si vous pensez que l’IA a déjà transformé notre quotidien, ce n’est probablement qu’un avant-goût de ce que l’avenir nous réserve.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

1 commentaire
  1. En fait c’est pas tellement l’IA qui pose problème. Ce qui pose problème, c’est juste l’humain qui interprète les résultats comme étant autre chose que le résultat d’une équation mathématique.

    Un programme informatique ne pense pas.

Les commentaires sont fermés.

Mode