Passer au contenu

Le MIT a développé un “cerveau sur puce” à synapses artificielles

Les opérations ayant trait à l’intelligence artificielle sont encore pour la plupart réservées à des ordinateurs spécialisés très puissants mais ce paradigme est en train de changer : une équipe du MIT a mis au point une première version d’un “brain-on-a-chip” de plusieurs milliers de synapses artificielles. Un premier pas vers la démocratisation de processeurs IA sur des appareils mobiles.

Crédits : @Geralt via Pixabay

L’intelligence artificielle et le machine learning sont des sujets centraux dans le monde de la tech depuis des années déjà, et chaque semaine, nous avons droit à un nouveau logiciel révolutionnaire basé sur l’IA. Mais l’innovation en intelligence artificielle n’est pas réservée au monde du software. Une équipe du MIT, relayée par Engadget, vient d’ailleurs de repousser les limites actuelles en termes de hardware, avec un “brain-on-a-chip” (“cerveau sur puce”) comprenant plusieurs dizaines de milliers de “synapses”. Ce terme de “cerveau” désigne un composant spécialement dédié à l’intelligence artificielle. C’est quelque chose que les ingénieurs informaticiens pratiquent déjà au quotidien sous forme logicielle, avec des applications dans de nombreux corps de métier, de l’ingénierie à la recherche fondamentale en passant par l’art.

Ces systèmes permettent de reproduire l’architecture d’un cerveau sous la forme d’un programme informatique. La prochaine étape est de transposer cette technologie logicielle sur un support hardware, et ce n’est pas chose aisée. Reproduire un cerveau, cela signifie avant tout simuler les milliards de connexions dynamiques qui se forment entre nos neurones, les synapses. Très schématiquement, c’est au coeur de ces zones de contact entre les neurones que s’effectue le transport d’informations au sein du système nerveux. Mais une synapse mesure environ une trentaine de nanomètres, et le cerveau humain en compte un nombre gigantesque, estimé à plusieurs milliers par centimètre carré !

Une course à la miniaturisation

Pour reproduire cette architecture, il faut donc trouver un composant au fonctionnement analogue aux petits éléments du cerveau, suffisamment petit pour être placé en très grande quantité sur un composant informatique dit neuromorphe . Le composant sur lequel les projets les plus avancés misent aujourd’hui est le memristor. Ce mot anglais, construit à partir des mots anglais memory (mémoire) et resistor (résistance), désigne un type de résistance particulier : lorsqu’on lui applique un courant électrique, la valeur de sa résistance électrique va changer de façon permanente. Dans un système complexe capable de lire la valeur de cette résistance, on peut faire en sorte de l’interpréter comme un 1 ou un 0, ce qui correspond à un bit de donnée avec lequel on peut travailler. En somme, cela lui confère la particularité très intéressante de pouvoir servir de petite unité de mémoire.

Tout le défi est donc de miniaturiser ces memristors autant que possible, pour conférer autant de puissance de calcul que possible à la puce IA en question. L’équipe du MIT, de son côté, a choisi de jouer sur les matériaux pour gagner en taille. Alors que les concepts qui existent déjà chez les principaux fabricants (Apple, Google, Microsoft, Intel et NVIDIA) utilisent des memristors faits d’argent, eux ont opté pour un alliage de cuivre et d’argent accompagné de silicone. Bien leur a pris, puisqu’ils ont réussi à intégrer plusieurs dizaines de milliers de ces composants sur une puce d’à peine 1mm carré.

L’IA grand public se rapproche

À l’heure actuelle, même avec des dizaines de milliers de memristors, ces puces sont encore très loin de pouvoir être utilisées dans la pratique. En revanche, chaque étape de miniaturisation est un pas supplémentaire vers du hardware spécialisé pour le grand public, et l’équipe du MIT a réussi à gagner plusieurs ordres de grandeur en une seule itération. À terme, ces composants devraient permettre d’ouvrir les portes de l’IA à des appareils aujourd’hui considérés comme bien trop faiblards. Si on peut imaginer tout un tas d’utilisations pour le grand public, les premiers bénéficiaires devraient toutefois être les ingénieurs et les chercheurs. Ces derniers, en particulier, font de plus en plus appel à L’IA avec des ensembles de données colossaux, qui nécessitent du matériel de pointe pour fonctionner.

Aujourd’hui, le commun des mortels réalise ce genre d’opérations sur des cartes graphiques, conçues spécialement pour réaliser une petite opération en parallèle un très grand nombre de fois (comme calculer la couleur de chaque pixel de votre écran). Mais en plus d’être très volumineuses, les machines qui fonctionnent ainsi nécessitent du matériel hors de prix, et bien souvent en plusieurs exemplaires. Mais à terme, il y a fort à parier que ces cartes soient supplantées par du matériel dédié, moins cher, et surtout bien plus petit. On peut donc aisément imaginer que d’ici quelques années, on puisse assister à l’arrivée des premiers smartphones équipés d’une puce IA grand public, avec une liste infinie d’applications potentielles, de la photo aux jeux en passant par la santé ou encore les applications liées au langage.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

2 commentaires
  1. ” On peut donc aisément imaginer que d’ici quelques années, on puisse assister à l’arrivée des premiers smartphones équipés d’une puce IA grand public” -> Mais ce n’est pas déjà le cas avec les NPU’s ? Apple, Samsung et Huawei les ont intégré depuis 3 ans maintenant déjà

  2. Je ne pense qu’on est conscients de la révolution qui couve depuis des années maintenant, mais quand à savoir QUAND tout ça va se concrétiser et révolutionner nos vies, c’est autre chose…

    Toujours est-il que le potentiel est immense, peut-être même à l’échelle de la révolution industrielle, de la révolution informatique ou d’un truc du genre….

Les commentaires sont fermés.

Mode