En juillet dernier, OpenAI annonçait la création d’une nouvelle équipe de recherche dédiée à la préparation de l’avènement d’une intelligence artificielle surpuissante, capable d’aller au-delà des cerveaux humains. Ilya Sutskever, cofondateur et scientifique en chef d’OpenAI, était nommé co-chef de cette nouvelle équipe. L’entreprise avait alors promis de consacrer 20 % de sa puissance de calcul à ce projet.
De sérieux enjeux éthiques laissés en plan
Mais ça ne s’est pas passé comme prévu. OpenAI a confirmé la semaine dernière la dissolution de son équipe « superalignment », suite au départ de plusieurs chercheurs. Dont Ilya Sutskever, suivi de la démission de l’autre co-chef de l’équipe, Jan Leike. Les travaux de cette équipe seront désormais intégrés dans d’autres efforts de recherche de l’entreprise.
Le départ de Sutskever a fait les gros titres, car il avait contribué à la création d’OpenAI en 2015 aux côtés de l’actuel CEO Sam Altman et avait orienté les recherches qui ont conduit à la création de ChatGPT. Cependant, il faisait aussi partie des quatre membres du conseil d’administration qui ont évincé Sam Altman en novembre dernier. Ce dernier a été réintégré cinq jours plus tard après une révolte massive du personnel d’OpenAI et la négociation d’un accord qui a vu Ilya Sutskever et deux autres directeurs quitter le conseil.
Pour sa part, Jan Leike a expliqué que sa décision résultait d’un désaccord avec les priorités de l’entreprise et du manque de ressources allouées à son équipe. « Je suis en désaccord avec la direction d’OpenAI sur les priorités fondamentales de l’entreprise depuis un certain temps, jusqu’à ce que nous atteignions finalement un point de rupture », a-t-il écrit. « Au cours des derniers mois, mon équipe a navigué à contre-courant. Parfois, nous manquions de puissance de calcul, ce qui rendait de plus en plus difficile l’accomplissement de cette recherche cruciale ».
La dissolution de l’équipe « superalignment » vient s’ajouter à une série de turbulences internes survenues après la crise de gouvernance de novembre dernier. Deux chercheurs de l’équipe, Leopold Aschenbrenner et Pavel Izmailov, ont été licenciés pour avoir divulgué des secrets de l’entreprise, rapportait le site The Information. Un autre membre de l’équipe, William Saunders, a quitté OpenAI en février.
OpenAI n’a pas souhaité commenter les départs d’Ilya Sutskever ou des autres membres de l’équipe « superalignment », ni l’avenir de ses travaux sur les risques à long terme de l’IA. La recherche sur les risques associés aux modèles plus puissants sera désormais dirigée par John Schulman, qui co-dirige l’équipe responsable de l’affinement des modèles d’IA après leur entraînement.
Même si l’équipe « superalignment » a été présentée comme l’unité principale travaillant sur les questions de contrôle des IA superintelligentes, elle n’était pas la seule à s’interroger sur la manière de maintenir l’IA sous contrôle. OpenAI assure de son engagement envers le développement d’une intelligence artificielle générale (AGI) « sûre et bénéfique pour l’humanité ». Cette dissolution interroge toutefois sur la manière dont l’entreprise compte aborder ce sacré défi.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.
Révolte massive… Ou comment réécrire l’histoire !