Nvidia et l’Université de Floride (UF) ont annoncé ce mardi 21 juillet qu’ils allaient collaborer pour mettre au point le supercalculateur le plus rapide jamais conçu. Pour cela, les deux partenaires ont prévu de partir d’HiPerGator, le supercalculateur actuel de l’UF, et de le remettre au goût du jour avec une architecture différente baptisée DGX SuperPod. Il devrait devrait être opérationnel début 2021, et délivrer la bagatelle de 700 petaflops de moyenne – soit 700 millions de milliards d’opérations en virgule flottante par seconde !
Il sera l’un des tous premiers systèmes de cette ampleur à être équipé des DGX A100 de NVIDIA. Ces bijoux de technologie abritent chacun huit GPUs A100 Tensor Core, le nec-plus-ultra du matériel de calcul à l’heure actuelle. Avec chacun 320 Gb de mémoire vive, 200 Gbps de bande passante et 54 millions de transistors, chaque DGX A100 serait capable de fournir une puissance de calcul d’environ 5 petaflops. Et les ingénieurs du projet ne vont pas faire dans la dentelle puisqu’ils vont ajouter pas moins de 140 (soit 1120 GPUs A100 Tensor Core) de ces petites bombes à l’HiPerGator, couplés à 4 petabytes de stockage et reliés par 15 kilomètres de fibre optique. Une installation dantesque !
Mais pourquoi donc ces monstres de puissance embarquent-ils des GPU ? En substance, c’est simplement un ensemble de très nombreuses petites sous-unités, qui permet de réaliser la même tâche un très grand nombre de fois en parallèle. Dans la carte graphique qui trône peut-être dans votre ordinateur, ces éléments servent à calculer la couleur des nombreux pixels de votre écran en même temps. Mais dans le cadre d’un supercalculateur, cette architecture est aussi utilisée pour réaliser des tâches ingrates à la chaîne, mais les applications sont bien plus variées que le simple rendu d’une image. En particulier, l’HiPerGator sera mis à contribution dans le cadre de l’intelligence artificielle appliquée à de nombreux domaines : le mouvement des marées, le vieillissement de la population, la sécurité des données, la médecine personnalisée, les transports urbains, la sécurité alimentaire… Autant de domaines qui nécessitent des modélisations que l’on ne peut réaliser efficacement et à grande échelle qu’à l’aide d’une machine très puissante.
L’IA à deux doigts du point de rupture ?
Ce supercalculateur serait près de deux fois plus puissant que le tenant du titre actuel, le japonais Fugaku avec ses 415 petaflops. Un bond très impressionnant, certes, mais ce qui interpelle encore davantage, c’est la vitesse à laquelle il a été réalisé puisque Fugaku n’est même pas encore entièrement opérationnel. L’IA progresse à une telle vitesse que les constructeurs mettent les bouchées double pour proposer des appareils toujours plus puissants, capables de suivre le rythme effréné de l’innovation des techniques dans l’univers du deep learning. En fait, cette discipline progresse tellement vite que certains observateurs se demandent déjà comment le hardware (qui évolue traditionnellement bien plus lentement que le software) pourrait arriver à suivre. À tel point qu’une étude récente suggère même que le deep learning pourrait s’approcher dangereusement d’une limite conceptuelle. “L’appétit prodigieux du deep learning pour la puissance de calcul brute limite la portée des améliorations en termes de performances, en tout cas sous sa forme actuelle, d’autant plus que les améliorations dans le monde du hardware ralentissent en ce moment”, explique l’un des auteurs. “Ces limites de calcul vont probablement forcer le machine learning à se diriger vers des approches plus efficaces (ndlr : d’un point de vue algorithmique) que le deep learning.” Si HiPerGator a donc de bonnes chances d’être couronné roi de sa catégorie dès son entrée en service, il est presque certain qu’il ne puisse pas conserver ce titre très longtemps.
[amazon box=”B07L5D2VY6″]
🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.
Va falloir optimiser le deep learning si bientôt le hardware n’arrive plus à suivre…
Ou l’abandonner pour trouver une manière moins gourmande de procéder
Ou plutôt : trouver une manière moins gourmande de procéder afin de l’abandonner.
C’est mieux dans ce sens 😉