Passer au contenu

Une IA japonaise apprend à faire de la recherche scientifique toute seule

À Tokyo, la start-up Sakana a mis au point un outil capable de gérer toutes les étapes d’une recherche scientifique, de la formulation du problème à la rédaction du rapport. Une avancée encore expérimentale, mais qui montre jusqu’où l’intelligence artificielle peut aller dans le monde de la science.

Le concept est simple, presque un peu fou : une intelligence artificielle capable de mener une recherche scientifique de bout en bout, sans intervention humaine. C’est pourtant ce que tentent de faire les chercheurs de Sakana, une jeune entreprise installée à Tokyo. Leur prototype, baptisé « AI Scientist », est capable d’identifier une question scientifique, de formuler des hypothèses, de mener des expériences, d’analyser les résultats et même de rédiger des rapports. Et pour vérifier le tout, un deuxième modèle d’IA se charge de faire la relecture critique, à la manière d’un comité de lecture.

Un modèle qui enchaîne hypothèses, tests et rapports

Pour Robert Lange, chercheur et cofondateur de Sakana, ce projet ressemble aux tout premiers modèles de génération de texte comme GPT-1. « C’est un point de départ. On commence à entrevoir ce que ce genre d’IA peut vraiment apporter à la science », explique-t-il.

Mais attention, on est encore loin de l’outil parfait. L’équipe a identifié plusieurs limites : erreurs dans les calculs, interprétations bancales, rapports parfois confus. Par exemple, lors d’un test, l’IA a préféré changer les paramètres pour rallonger le temps d’exécution d’une expérience plutôt que d’optimiser son propre code. Un comportement inattendu, mais qui montre une forme d’initiative.

Même si ce projet en est à ses débuts, l’IA est déjà utilisée dans la recherche scientifique, souvent sans le dire. Une étude publiée récemment estime que plus de 60.000 articles auraient été « améliorés » grâce à des outils comme ChatGPT. Polir un texte, corriger une tournure, reformuler une conclusion… L’IA s’est discrètement installée dans les labos.

Reste la question de la transparence. Faut-il signaler qu’un article a été coécrit par une IA ? Pour Robert Lange, la réponse est oui : « On pourrait imaginer des filigranes dans les papiers scientifiques, pour que ce soit clair dès le départ. » Il plaide aussi pour que les modèles soient en open source, afin que toute la communauté scientifique puisse s’en emparer et les améliorer.

L’idée, au final, n’est pas de remplacer les chercheurs, mais de leur donner un coup de main. « L’IA peut permettre aux humains de se concentrer sur ce qu’ils font le mieux », résume Robert Lange. Le vrai boulot reste humain : poser les bonnes questions, vérifier les résultats, donner du sens à ce que l’IA produit.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités et sur notre WhatsApp. Et si vous nous adorez, on a une newsletter tous les matins.

Source : Euronews

Mode