Passer au contenu

Nvidia bat plusieurs records d’entraînement d’IA

Nvidia a présenté aujourd’hui ses résultats pour 8 benchmarks MLPerf, le benchmark de référence pour l’entraînement d’intelligences artificielles. Avec à la clé, huit records de performance sur différents tests de la plateforme.

MLPerf est un groupe d’organisations qui joue un rôle clé dans le hardware lié à l’IA, et qui comprend notamment Google, Amazon, Arm, Microsoft ou Baidu. Ce groupe a accouché d’un ensemble d’outils destiné à l’analyse des performances de matériel destiné à l’accélération du machine learning, qui font aujourd’hui référence en la matière. Cela permet la mise en place d’un cadre et de standards communs par rapport aux performances en matière d’IA.

Dans ce cadre, NVIDIA a annoncé avoir battu huit records différents sur plusieurs tests. Parmi eux, on peut citer un test de détection d’objets lourds, qui se sert d’un réseau neuronal pour combiner des données de sources multiples (caméras, capteurs à ultrasons…). Il s’agit d’un des tests les plus exigeants disponibles : même avec les performances impressionnantes revendiquées par NVIDIA, le nouveau record qu’ils ont établi leur a demandé 25,49 heures de calcul.

© NVIDIA

En plus de ces résultats, un autre s’avère particulièrement parlant. En 2017, la Tesla V100 de Nvidia leur permettait d’entraîner un modèle de reconnaissance d’image baptisé ResNet-50 en huit heures. Aujourd’hui, un système basé sur les mêmes GPU V100 mais avec un certain nombre d’améliorations logicielles a bouclé cette même tâche en la bagatelle de 80 secondes !

Les différents records revendiqués par Nvidia se séparent en deux catégories : des records absolus d’un côté, et des records par accélérateur (c’est à dire par sous-unité matérielle dédiée à l’accélération) de l’autre. À noter que pour trois des test pratiqués (Object Detection (Heavy Weight) – Mask R-CNN, Reinforcement Learning – MiniGo et Translation (Recurrent) – GNMT), NVIDIA rafle le record dans les deux catégories à la fois.

À noter également que les TPU v3 Pods de Google Cloud ont affiché des performances impressionnantes en traduction Anglais – Allemand.

Des temps de calcul de plus en plus abordables à l’échelle humaine

Si NVIDIA a évidemment un intérêt économique à communiquer sur ces résultats impressionnants, ils traduisent tout de même d’un nouveau bond en avant depuis leurs dernières avancées en la matière, en décembre dernier.

Ces avancées sont majoritairement le fruit d’avancées sur le plan logiciel, ce qui laisse penser qu’on pourrait à nouveau voir de nouveaux records tomber dans les mois à venir au fur-et-à-mesure que les ingénieurs peaufineront leurs programmes. Mais surtout, le fait de commencer à s’approcher de temps de calculs en minute, plutôt qu’en heure ou en jours, nous rapproche encore du moment où ce genre d’opération pourrait devenir accessible au grand public qui ne dispose pas de supercalculateur.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Source : VentureBeat

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Mode