Geoffrey Hinton, lauréat du prix Turing 2018 (en quelque sorte le « prix Nobel » de l’informatique) et l’un des « pères fondateurs » de l’intelligence artificielle, a récemment quitté Google pour parler librement des risques liés à l’IA. Avant de rejoindre Google, Hinton et ses étudiants avaient développé un réseau neuronal capable d’identifier des objets courants après l’analyse de milliers de photos. C’est ce travail qui a conduit à la création de ChatGPT et de Bard, le bot du moteur de recherche dévoilé en catastrophe après que Microsoft a lancé le « nouveau » Bing.
Les risques que fait peser l’intelligence artificielle
Geoffrey Hinton a annoncé sa démission à Google le mois dernier, il a également eu une conversation avec le CEO Sundar Pichai. À 75 ans, maintenant libéré des contraintes de son ancien employeur, il a tout loisir de révéler ses craintes concernant l’utilisation de l’intelligence artificielle par des acteurs malveillants et de l’évolution incontrôlée de sa créature.
Il se réconforte en se disant que si ça n’avait pas été lui, quelqu’un d’autre aurait développé cette technologie. Il redoute cependant que l’IA ne tombe entre les mains de personnes malveillantes et soit utilisée à des fins néfastes. Le scientifique dit aussi qu’il était satisfait de la gestion de la technologie par Google, jusqu’à ce que Microsoft lance Bing intégrant la technologie d’OpenAI, défiant ainsi le moteur de recherche sur son marché clé.
Cette concurrence féroce pourrait, selon Geoffrey Hinton, entraîner un monde où les fausses informations et les images truquées seraient si répandues que personne ne pourrait distinguer le vrai du faux. Au-delà de la propagation des fausses informations, Geoffrey Hinton s’inquiète également de l’élimination des emplois « routiniers » et de la possibilité que l’intelligence artificielle dépasse l’intelligence humaine en écrivant et en exécutant son propre code. Il pensait auparavant que cela n’arriverait que dans 30 à 50 ans, mais il a depuis révisé son estimation.
In the NYT today, Cade Metz implies that I left Google so that I could criticize Google. Actually, I left so that I could talk about the dangers of AI without considering how this impacts Google. Google has acted very responsibly.
— Geoffrey Hinton (@geoffreyhinton) May 1, 2023
Jeff Dean, le directeur scientifique de Google, a toutefois voulu minimiser l’impact des propos de son ancien collègue en déclarant que l’entreprise reste attachée à une approche responsable de l’intelligence artificielle. Google apprend continuellement à identifier les risques émergents tout en innovant, assure-t-il. Suite à cette interview, Geoffrey Hinton a clarifié sa position sur Twitter, en expliquant qu’il avait quitté Google pour parler des dangers de l’IA sans se soucier de l’impact sur l’entreprise. Il considère que son ex-employeur a agi de manière responsable.
En dépit des préoccupations exprimées par Hinton, ChatGPT (un service en partie issu de ses recherches) rencontre un succès considérable. Pour le meilleur comme pour le pire.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.
Comme toute technologie humaine, l’IA, la vraie, SERA utilisée a des fins malveillantes, soit par des états, soit par des organisations criminelles, terroristes ou militantes. Cela ne fais pas de doute et un moratoire ne servira a rien puisqu’il ne sera respecté que par les “gentils” tandis que les “vilains” continueront a avancer discrètement.
Le meilleur outils contre des IA programmées pour nuire seront les IA programmées pour les contrer, c’est une course a l’armement sans fin, une histoire de gendarmes et de voleur, d’où la nécessité de ne pas freiner les acteur officiels et responsables.