Passer au contenu

Une simple IRM permet désormais de lire dans les pensées

Cette technique est basée sur l’imagerie par résonance magnétique, et pourrait amener de grands progrès en neurologie clinique ainsi qu’en recherche fondamentale.

Dans des travaux repérés par The Scientist, des chercheurs expliquent avoir réussi à « décoder » les pensées d’une personne à distance ; c’est la toute première fois que des travaux de ce genre sont réalisés sans électrodes fixées sur le sujet, et cela pourrait ouvrir de nouvelles portes en neurosciences.

Structurellement parlant, nos cerveaux sont des amoncellements de cellules nerveuses ultraspécialisées dans la conduction de signaux électriques. Depuis des décennies, les chercheurs développent des méthodes diverses et variées pour déchiffrer ces courants, avec l’objectif de réaliser l’un des vieux rêves de l’humanité : lire dans les pensées.

Lire dans les pensées, une vieille lubie de l’humanité

Ces dernières années, les chercheurs en neurobiologie ont fait des progrès considérables dans ce domaine. Les spécialistes sont désormais capables d’enregistrer et de différencier ces signaux avec une grande précision. Et depuis que l’IA a commencé à se démocratiser, ces travaux sont encore passés à la vitesse supérieure ; l’enjeu est désormais de les interpréter. Par exemple, en 2019, des chercheurs californiens ont développé un système capable de « traduire » des ondes cérébrales en langage parlé.

Mais pour aller encore plus loin, il reste une étape très importante à franchir : parvenir au même résultat à distance, sans utiliser la moindre électrode. C’est un problème sur lequel les plus grands spécialistes de la discipline se sont régulièrement cassé les dents… jusqu’à aujourd’hui.

« Il y a 20 ans, si vous aviez demandé à des chercheurs en neurosciences cognitives si c’était possible, ils vous auraient ri au nez », raconte Alexander Huth, chercheur à l’Université du Texas à Austin. Mais aujourd’hui, la donne a changé : avec son équipe, il a enfin réussi à franchir cette étape ô combien importante.

Dans leurs travaux, ils décrivent un système basé sur l’imagerie par résonance magnétique (IRM). C’est un examen médical très commun qui consiste à aligner les atomes d’hydrogène de l’organisme grâce à de puissants aimants. Ils sont ensuite stimulés à l’aide d’ondes radio pour les faire passer dans un état de résonance (d’où le nom). En réponse, ils émettent alors un signal qui est capturé sous la forme d’une image lisible par un médecin.

Dans ce cas précis, la technique utilisée est une déclinaison baptisée IRMf, pour IRM fonctionnelle. Cette variante est exclusivement réservée à l’étude du cerveau ; elle consiste à observer le flux sanguin dans les diverses régions du cerveau, qui est directement corrélé à l’activation des neurones concernés. En d’autres termes, en observant où se dirige le sang, on peut en déduire quels processus cognitifs sont en train de se dérouler.

Le problème, c’est que selon The Scientist, cette technique ne convient pas à tous les cas de figure. La durée des décharges des neurones est généralement de l’ordre de la milliseconde. Le flux sanguin dans le cerveau, lui, est nettement plus lent ; il est donc très difficile de s’en pour étudier les mécanismes cognitifs en temps réel.

Décoder l’activité du cerveau sans électrodes

Ou du moins, c’est ce que tout le monde pensait jusqu’à présent. Huth et ses collègues ont trouvé un moyen de contourner partiellement le problème ; ils ont développé un système qu’ils désignent comme un « décodeur ». Il ne cherche pas à transcrire le langage mot par mot, mais plutôt à en extraire le sens — le fond avant la forme, en somme.

Pour peaufiner leur système, ils ont proposé à trois personnes — une femme et deux hommes — d’écouter environ 16 heures de contenu audio tiré de différents podcasts, pendant qu’ils étaient bien installés sous une machine à IRMf. Pendant ce temps, le décodeur s’est entraîné à établir des liens logiques entre les phrases prononcées, et l’effet observé sur le cerveau des patients.

En se basant sur cette expérience, le décodeur a ensuite généré un récit complet ; dans l’idéal, la petite histoire proposée par l’algorithme devait correspondre le mieux possible au contenu audio écouté par les sujets. Et malgré quelques lacunes (le décodeur a par exemple beaucoup de mal à choisir entre la première et la troisième personne du singulier), les chercheurs ont jugé le résultat très satisfaisant ; en d’autres termes, le décodeur a pu reconstituer ce que chaque participant a entendu à partir des images de son cerveau, et avec un bon degré de précision.

Et ce n’est pas tout : il s’est même montré capable d’interpréter des signaux qui n’avaient rien à voir avec le langage parlé ! Par exemple, quand les participants ont regardé un film muet, l’algorithme a quand même réussi à retranscrire correctement l’intrigue, ce qui n’était pas du tout prévu à l’origine. « Le fait que tous ces processus se superposent dans le cerveau, c’est quelque chose dont nous commençons tout juste à prendre conscience », explique Hutt.

Des « bases solides » pour les interfaces cerveau-machine du futur

À première vue, on pourrait se dire que ces travaux manquent de matière ; pour l’instant, ils n’ont pas encore fait l’objet d’une relecture par les pairs — un processus incontournable pour en valider les conclusions. De plus, en règle générale, une étude basée sur à peine trois sujets a beaucoup de mal à apporter des conclusions claires.

Mais Huth et son équipe sont confiants ; ils expliquent avoir collecté à peu près autant de données que les autres études de ce genre, même si le nombre de sujets est moins important. Ils estiment donc que leurs résultats sont à la fois solides et probants. Et d’autres chercheurs partagent cette interprétation.

Sam Nastase, un chercheur de la prestigieuse université de Princeton qui n’a pas participé à l’étude, juge même ces travaux « époustouflants ». « Ce qu’ils montrent dans ce papier, c’est qu’avec le bon système de modélisation, on peut extraire une quantité surprenante d’information des images d’IRMf », affirme-t-il.

neuralink-elon-musk
© Neuralink

À terme, cette technologie pourrait avoir des retombées dans différentes niches des neurosciences. La plus évidente, c’est que ces travaux posent des bases solides pour des tas d’applications en lien avec les interfaces cerveau-machine, comme le Neuralink d’Elon Musk.

Mais ils seront aussi d’une aide précieuse en recherche fondamentale. Puisque le système ne cherche pas à traduire mot par mot, les chercheurs pourront tenter de comprendre quels mécanismes du cerveau permettent d’extraire le sens de chaque propos. Cela pourrait permettre de faire des progrès immenses sur les mécanismes de la conscience, de la mémoire et du raisonnement, qu’il soit conscient ou subconscient.

L’autre bonne nouvelle, c’est que les chercheurs ont passé de longs mois à étudier le côté confidentialité. Ils en ont conclu qu’un système de ce genre serait virtuellement incapable de scanner les pensées d’une personne sans son consentement ; si le décodeur ne s’est pas entraîné pendant de longues heures sur une personne en particulier, il ne pourra en aucun cas déchiffrer les images de son cerveau.

Ces précautions ont été saluées par les autres chercheurs, qui y voient un signe encourageant pour le développement de ces technologies. Il sera donc intéressant d’en observer les retombées, surtout dans le contexte actuel où les premières interfaces cerveau-machine ne sont plus si loin d’arriver sur le marché.

Le texte de l’étude est disponible ici.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

1 commentaire
Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Mode