En mai dernier, Ilya Sutskever, co-fondateur et ancien scientifique en chef d’OpenAI, quittait l’entreprise avec fracas, invoquant de profonds désaccords quant aux priorités de l’entreprise.
Mais cette pointure très respectée du machine learning, qui a grandement contribué au développement de ChatGPT tel qu’on le connaît aujourd’hui, n’a pas écrit sa dernière ligne de code pour autant. Il vient d’officialiser le lancement de Safe Superintelligence Inc (SSI), une nouvelle startup spécialisée dans — vous l’aurez deviné — l’intelligence artificielle.
La sécurité à tout prix
Le nom de cette nouvelle entreprise est loin d’être anodin. En effet, la sécurité des modèles IA a toujours été à la fois la spécialité et la principale préoccupation de Sutskever. Chez OpenAI, il était notamment à la tête de la fameuse équipe de superalignement, qui avait pour mission de « contrôler » les modèles de la firme et de garantir leur « alignement avec les valeurs humaines ».
C’est aussi cet aspect de la recherche en IA qui aurait précipité son départ. Selon plusieurs insiders américains, ses relations avec le PDG Sam Altman s’étaient considérablement dégradées. Il est de notoriété publique que ce dernier ne partageait pas franchement son goût pour le principe de précaution. Il se focalisait davantage sur les performances de ses modèles. Une philosophie qui a porté ses fruits au niveau commercial, puisqu’elle a notamment ouvert la voie à un accord à plus de 10 milliards de dollars avec Microsoft – au grand dam d’Elon Musk.
Mais cette désinvolture bien documentée par rapport à la sécurité a aussi créé une fracture irréparable au sein de l’entreprise. C’était l’un des principaux arguments invoqués en novembre 2023, quand Altman a été poussé vers la sortie par le conseil d’administration… ou siégeait d’ailleurs Ilya Sutskever.
Il n’est donc pas étonnant de constater que cette thématique occupe une place centrale dans le pitch de sa nouvelle startup. « Nous avons lancé le premier laboratoire SSI au monde, avec un seul objectif et un seul produit : une superintelligence sûre. C’est notre mission, notre nom et l’ensemble de notre feuille de route produit, car c’est notre seul objectif », explique le premier communiqué de la firme.
Superintelligence is within reach.
Building safe superintelligence (SSI) is the most important technical problem of our time.
We've started the world’s first straight-shot SSI lab, with one goal and one product: a safe superintelligence.
It’s called Safe Superintelligence…
— SSI Inc. (@ssi) June 19, 2024
« Nous abordons la sécurité et les capacités en tandem, en tant que problèmes techniques que nous voulons résoudre grâce à une ingénierie révolutionnaire et à des avancées scientifiques majeures. Nous prévoyons de faire progresser nos capacités le plus rapidement possible tout en veillant à ce que notre sécurité reste toujours en avance. De cette façon, nous pouvons évoluer en toute tranquillité. »
Le texte contient même une pique à peine dissimulée envers son ancienne écurie. « Cette priorité unique signifie que nous ne souffrirons pas de distractions comme les frais de gestion ou les cycles de produits, et notre modèle commercial signifie que la sûreté, la sécurité et le progrès sont isolés des pressions commerciales à court terme. » Sam Altman et Satya Nadella ont probablement les oreilles qui sifflent.
La “superintelligence“, un concept encore nébuleux
Pour l’instant, SSI n’a pas révélé beaucoup d’informations sur sa feuille de route. On sait seulement que la firme ambitionne de construire une “superintelligence” — un terme nébuleux aux implications encore vagues pour le moment. Intuitivement, cela ressemble au concept d’intelligence artificielle générale, l’objectif revendiqué de Sam Altman depuis les débuts d’OpenAI.
Pour rappel, cela désigne un système capable de réaliser toutes les tâches intellectuelles dont les humains sont capables, voire de surpasser notre espèce dans ces exercices. Mais le communiqué de SSI évite soigneusement d’employer ce terme. Et c’est un détail qui, là encore, est tout sauf anodin. Est-ce simplement un tour de passe-passe sémantique pour marquer sa différence avec OpenAI, ou cette terminologie cache-t-elle de vraies différences technologiques et philosophiques ? SSI va-t-elle marcher sur les platebandes de Sam Altman, ou opérer dans un espace différent ? L’avenir nous le dira.
Pour finir, il convient aussi de préciser que ce n’est pas la première fois qu’une startup d’intelligence artificielle tient ce genre de discours centré sur la sécurité. C’est un champ lexical très à la mode qui a notamment l’avantage d’aider à séduire des investisseurs, dans un contexte où de nombreux spécialistes s’inquiètent des conséquences potentielles d’une recherche en IA débridée. Il sera donc intéressant de voir si Sutskever et ses co-fondateurs, dont l’ancien ingénieur d’OpenAI Daniel Levy, joindront les actes à la parole… ou si l’impitoyable réalité de ce marché ultra-compétitif forcera SSI à changer de direction comme l’a fait son ancienne écurie. Affaire à suivre.
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.