Passer au contenu

AWS : un cocktail de puces maison et de Nvidia pour l’IA générative

AWS, la filiale cloud d’Amazon, a dévoilé de nouveaux processeurs destinés aux calculs d’intelligence artificielle, et elle aura aussi accès aux dernières puces de Nvidia. Un partenariat précieux alors que toute l’industrie s’arrache ce silicium.

Amazon Web Services (AWS) est un des leaders des services dans le nuage et pour conserver sa position, l’entreprise doit impérativement demeurer compétitive dans le domaine de l’intelligence artificielle générative. Et pour ça, il n’y a pas le choix : il lui faut l’accès à des puces spécialisées dans le traitement des lourds calculs IA.

Des puces maison pour accélérer les calculs IA

C’est pourquoi AWS a adopté une stratégie à double volet pour se démarquer. D’une part, la filiale d’Amazon développe ses propres puces comme les nouveaux processeurs d’IA Trainium2 et le Graviton4, plus polyvalent. D’autre part, AWS va proposer à ses clients un accès aux puces AI de Nvidia, notamment les unités de traitement graphique H200 qui sont très demandées par les technologies d’IA générative.

Cette approche est une réponse à la forte demande pour les GPU Nvidia, qui connaissent un engouement exceptionnel après le lancement des technologies d’IA de pointe comme ChatGPT d’OpenAI. La pénurie de puces Nvidia a conduit de nombreuses entreprises à rechercher des solutions alternatives pour intégrer des technologies similaires dans leurs services. En parallèle, le concurrent principal d’Amazon dans l’informatique dans le nuage, Microsoft, a récemment levé le voile sur son propre processeur d’IA, le Maia 100, tout en annonçant également l’intégration des GPU Nvidia H200 dans son cloud Azure.

Les processeurs Trainium2 sont conçus pour l’entraînement de modèles d’IA, notamment ceux utilisés par des chatbots (ChatGPT, Bard, Bing AI…). AWS assure que ces puces offrent une performance quatre fois supérieure à celle des précédentes versions. Des entreprises comme Databricks et Anthropic, soutenues par Amazon et concurrentes d’OpenAI, prévoient d’utiliser ces puces pour leurs développements futurs.

Quant aux processeurs Graviton4, basés sur l’architecture Arm, ils se distinguent par une consommation d’énergie moindre comparée aux puces d’Intel ou d’AMD. Amazon annonce que ces puces offrent une performance 30 % supérieure à celle des Graviton3, ce qui permettra un meilleur rendement pour un prix équivalent. Dans un contexte d’inflation élevée, cette efficacité énergétique et ces performances améliorées pourraient attirer les organisations qui veulent réduire leurs dépenses cloud.

Seul bémol : les dates de sortie pour les instances virtuelles équipées des puces Nvidia H200 ou Trainium2 n’ont pas été annoncées. Mais les clients peuvent d’ores et déjà tester les instances Graviton4 avant leur disponibilité commerciale dans les prochains mois. La stratégie d’AWS montre en tout cas que l’entreprise a pris le taureau par les cornes et entend bien tirer profit de la hype actuelle autour de l’IA générative.

🟣 Pour ne manquer aucune news sur le Journal du Geek, abonnez-vous sur Google Actualités. Et si vous nous adorez, on a une newsletter tous les matins.

Source : Nvidia

Mode