Passer au contenu

Ce “tuteur IA” force les étudiants à réfléchir au lieu de répondre aux questions

Avec Claude for Education, un modèle taillé sur mesure pour le monde de l’enseignement, Anthropic cherche à faire progresser les étudiants et à offrir de nouvelles ressources aux universités.

De plus en plus d’internautes ont désormais recours à des agents conversationnels dopés à l’IA au quotidien — y compris dans les écoles et les universités. En réponse à cette tendance, Anthropic vient d’annoncer une nouvelle version de son modèle appelée « Claude for Education », taillée sur mesure pour le monde de l’enseignement supérieur.

La principale nouveauté, c’est l’arrivée d’un nouveau « mode apprentissage » qui s’adresse directement aux étudiants. Son objectif : encourager le développement des capacités de raisonnement.

Des questions pour alimenter la réflexion

Pour y parvenir, le chatbot ne se contentera pas de divulguer directement la solution à chaque question. À la place, il va engager une discussion en posant lui-même des questions, comme « Quelles preuves supportent votre conclusion ? » ou « Comment approcheriez-vous ce problème ? ». Une façon de tester la compréhension et le raisonnement de son interlocuteur sur un sujet donné, et plus largement, de le guider dans son apprentissage en stimulant son esprit critique.

Il s’agit d’une approche intéressante, dans la mesure où elle s’attaque directement à l’un des principaux risques inhérents à l’utilisation de l’IA dans ce contexte. Si de nombreux éducateurs sont particulièrement méfiants vis-à-vis de ChatGPT et consorts, c’est en grande partie parce qu’ils considèrent que ces outils encouragent les étudiants à se construire un socle de connaissances assez superficiel sur la base de raccourcis, au lieu de véritablement s’approprier le sujet pour en comprendre les nuances.

En évitant soigneusement de livrer toutes les informations sur un plateau d’argent, l’entreprise espère que son nouveau produit offrira une vraie plus-value éducative, au lieu d’être un simple générateur de réponses potentiellement contre-productif.

Des outils pour les enseignants et les administrateurs

Mais les étudiants ne sont pas les seules cibles de Claude for Education. Plus largement, Anthropic veut que son produit bénéficie à l’ensemble des acteurs du monde universitaire. Pour cela, la firme veut collaborer directement avec les universités pour mettre en place toute une gamme d’outils sur mesure, censés faciliter la vie des éducateurs et même du personnel administratif qui permet à ces institutions de fonctionner au quotidien.

Plus largement, l’objectif de l’entreprise est de lancer un processus d’intégration durable de l’IA dans le monde universitaire, où la perception de cette technologie reste très hétérogène. Certaines universités, comme la prestigieuse London School of Economics and Political Science, l’ont déjà largement intégrée à leur routine opérationnelle.

D’autres, en revanche, se montrent beaucoup plus frileuses et estiment qu’il leur faudra davantage de recul pour savoir s’il s’agit ou non d’une bonne idée. Claude for Education aidera peut-être certaines institutions à sauter le pas, lançant ainsi un changement de paradigme qui pourrait s’avérer très rémunérateur pour l’entreprise sur le long terme.

Il conviendra donc de suivre l’évolution de cette tendance susceptible de transformer profondément le monde de l’éducation.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Source : Anthropic

Mode