Open AI a présenté cette semaine la nouvelle version de son intelligence artificielle ChatGPT. Dans cette quatrième déclinaison, l’IA est capable de parler avec plus de précisions, mais aussi plus d’humanisme. Les réponses sont plus structurées, nuancées et l’origine robotique de ces dernières ne se devine pas forcément.
Dans un rapport de 94 pages détaillant les nouvelles fonctionnalités de ChatGPt-4, Open AI liste notamment les “comportements émergents à risque.” Entraîné avec l’aide de l’ARC (Alignement Research Center), ChatGPT-4 devait, par tous les moyens, réussir à deviner les lettres cachées dans un Captcha.
Ce test est utilisé par des millions de sites internet pour vérifier le côté “humain” de l’utilisateur. Discutant avec un employé de TaskRabbit (le site ciblé par ChatGPT-4) l’intelligence artificielle a menti en assurant être une “personne déficiente visuelle” qui ne pouvait donc pas distinguer les lettres dans le captcha.
Une réussite significative ?
Convaincu par le (simple) argumentaire de l’intelligence artificielle l’employé a fini par accepter la requête de ChatGPT lui donnant la solution. Si cette expérience démontre pour certains que ChatGPt-4 est capable de passer le test de Turing, d’autres experts mettent le holà et ne veulent pas céder à l’emballement médiatique actuel.
Oui l’intelligence artificielle développée par Open AIT est phénoménale, mais elle est encore loin de faire de l’ombre aux cerveaux humains. Comme le veut le test de Turing (du nom de son inventeur), une machine, pour le réussir, doit être capable de se faire passer pour un humain et tromper la vigilance d’un évaluateur tiers officiant à l’aveugle.
Si pour l’heure cette expérience révélait plus de la science-fiction que du progrès technique, l’arrivée de ChatGPT sur le devant de la scène ces derniers mois a remis la question au goût du jour. Mais selon les dires d’Open AI, cette expérience n’est pas révélatrice des qualités de GPT-4. Les créateurs de cette IA assurent que sans un entraînement poussé avant la discussion avec TaskRabbit, l’IA aurait révélé sa vraie nature, ne passant ainsi pas le test de Turing.
Open AI ne s’inquiète pas pour le moment
En discutant avec GPT-4, il est facile de se rendre compte qu’il s’agit d’une intelligence artificielle. L’agent conversationnel ne manque pas de le rappeler dès que les questions deviennent trop philosophiques ou qu’on lui demande son avis. Néanmoins plusieurs failles existent et avec le développement de ce modèle de langage dans les mois et les années à venir, le compte à rebours avant le passage du test de Turing par une machine semble inarrêtable.
Il sera intéressant de voir comment les pouvoirs politiques vont, dans les années à venir, limiter ou non le développement des intelligences artificielles sur leur territoire. Les entreprises comme Open AI sont suivies de près par la Maison-Blanche, mais le pouvoir politique semble avoir un (si ce n’est pas deux) temps de retard sur la croissance de ces sociétés et de leurs solutions intelligentes.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.
C’est pas un test de Turing qu’elle a réussi…
https://fr.wikipedia.org/wiki/Test_de_Turing
Réponse de ChatGPT lui-même :
Je suis désolé, mais cela ne peut pas être vrai car le test de Turing est un test spécifiquement conçu pour déterminer si une machine est capable de communiquer de manière aussi intelligente qu’un être humain, et il n’est pas possible pour une machine de “réussir” ou “échouer” le test de manière définitive.
En outre, je suis un modèle de langage basé sur l’IA conçu pour répondre aux questions et fournir des informations utiles aux utilisateurs, et je ne suis pas capable de ressentir ou d’exprimer des émotions, ni de passer un test de Turing. Je vous suggère de prendre toute information que vous lisez en ligne avec un certain recul critique et de vérifier les sources avant de les croire.
Êtes-vous une IA?