Nvidia déploie ses supercalculateurs Grace Blackwell Ultra : une révolution explosive pour l’IA cloud

Nvidia déploie ses supercalculateurs Grace Blackwell Ultra : une révolution explosive pour l’IA cloud

Nvidia franchit une nouvelle étape décisive dans l’accélération du calcul intensif en déployant pour la première fois ses supercalculateurs IA Grace Blackwell Ultra au sein du cloud provider américain CoreWeave. Grâce à une collaboration stratégique avec Dell Technologies, ces systèmes de nouvelle génération deviennent opérationnels, annonçant une ère inédite pour l’intelligence artificielle à très grande échelle.

Une avancée matérielle majeure pour l’intelligence artificielle

Les systèmes Grace Blackwell Ultra s’appuient sur une architecture GPU inédite centrée autour des puces Blackwell Ultra, composées de 208 milliards de transistors. Fabriqués via un procédé gravé en 4NP par TSMC, ces GPU utilisent une architecture à deux chips reliés par une interconnexion de 10 To/s, agissant comme une unité GPU unique de taille colossale.

Le système phare déployé, le GB300 NVL72, associe 72 GPU Blackwell Ultra à 36 processeurs Grace CPU dotés collectivement de 2 592 cœurs Arm Neoverse V2. Cette synergie offre une bande passante NVLink de 130 To/s avec un total de 40 To de mémoire unifiée, accompagnée d’une bande passante mémoire GPU de 21 To/s et CPU de 18 To/s.

Selon le rapport publié par Tom’s Hardware, ces supercalculateurs représentent une performance théorique IA atteignant jusqu’à 1 100 pétaflops en FP4, notamment grâce aux nouveaux Tensor Cores capables de prendre en charge une diversité de formats numériques : FP4, FP8, FP16, INT8, TF32, entre autres.

CoreWeave : premier partenaire à bénéficier de cette puissance

CoreWeave, acteur en pleine croissance du cloud computing spécialisé en IA et rendu graphique, devient le tout premier opérateur à recevoir cette technologie révolutionnaire. La livraison a été assurée par Dell, qui a géré l’assemblage des clusters et leur intégration dans l’infrastructure cloud haute performance de CoreWeave.

Ce déploiement offre à CoreWeave une capacité de calcul inédite pour répondre aux besoins de ses clients dans des domaines tels que la génération vidéo en temps réel, les assistants conversationnels avancés ou encore l’analyse prédictive de données à grande échelle. Ces charges de travail nécessitent une scalabilité extrême et une faible latence, rendues possibles par l’intégration de réseaux ConnectX-8 SuperNIC, supportant une connectivité de 800 Gb/s par GPU.

Transformer l’accès à la puissance IA dans le cloud

Le partenariat entre Nvidia, CoreWeave et Dell a pour ambition de rendre l’infrastructure IA haut de gamme plus accessible. En proposant les supercalculateurs GB300 NVL72 via des services cloud, CoreWeave permet à une nouvelle vague d’entreprises, de start-ups et de laboratoires de bénéficier d’un accès direct à cette puissance calculatoire monumentale.

Ces systèmes sont conçus pour entraîner et inférer des modèles IA gigantesques, parfois constitués de plusieurs billions de paramètres. Ils permettent une inférence jusqu’à 30 fois plus rapide que les systèmes basés sur l’ancienne génération Hopper. Cette avancée ouvre la voie à de nouvelles applications industrielles, scientifiques et créatives, tout en réduisant considérablement les temps de calcul et les coûts opérationnels.

Une évolution technologique spectaculaire

Le GPU Blackwell Ultra introduit également des innovations majeures, comme un moteur Transformer de seconde génération et un système de micro-scalage tensoriel, qui permettent d’augmenter la performance tout en conservant une précision élevée. Ces optimisations sont cruciales pour les modèles de langage de très grande taille (LLM) et les structures Mixture-of-Experts, devenues centrales dans l’intelligence artificielle générative.

Comparée à la génération Hopper, l’architecture Grace Blackwell propose 40 fois plus de performance IA en inférence. Elle bénéficie également d’une mémoire HBM3e améliorée et de nouveaux mécanismes d’accélération mathématique, pensée pour les modèles de nouvelle génération plus profonds et complexes.

Ce que cela signifie pour l’avenir de l’IA

La mise en opération de ces supercalculateurs représente bien plus que l’ajout d’une nouvelle architecture graphique. Il s’agit d’un changement de paradigme dans le développement de modèles IA à très grande échelle, y compris dans les secteurs comme la santé, l’ingénierie, les médias ou la finance.

Toutefois, cette avancée s’accompagne de défis : la maîtrise énergétique, le refroidissement liquide spécialisé et la gestion de volumes massifs de données deviennent des impératifs techniques. Sans une expertise adaptée, exploiter efficacement cette puissance s’avère complexe.

Pour faire face à cela, Nvidia prévoit des déclinaisons abordables comme le GB10 SoC, une puce de bureau capable de fournir 1 pétaflop IA. Celle-ci vise à démocratiser l’accès à des capacités d’IA jusque-là réservées aux géants du cloud, en offrant aux développeurs individuels ou petites structures un outil puissant et local.

Une feuille de route ambitieuse pour 2025

  • Janvier 2025 : Lancement du SoC Grace Blackwell GB10, apportant l’architecture Blackwell sur poste de travail.
  • Mars 2025 : Révélation des caractéristiques du premier supercalculateur Grace Blackwell, le GB200 NVL72.
  • Avril 2025 : Présentation officielle du GB300 NVL72, version améliorée à 72 GPU et 36 CPUs.
  • Mi-2025 : Déploiement chez CoreWeave avec l’accompagnement de Dell.

Conclusion : un nouveau sommet dans l’infrastructure IA

L’arrivée des supercalculateurs Grace Blackwell Ultra signe une nouvelle ère. Elle marque le passage d’une puissance réservée à quelques centres de recherche à une accessibilité croissante via le cloud. Nvidia, en s’appuyant sur un partenariat solide avec Dell et CoreWeave, pose les bases d’un écosystème IA distribué à très haute performance.

En combinant intégration verticale, puissance brute et flexibilité cloud, cette nouvelle architecture ouvre des opportunités majeures pour les acteurs de l’IA, qu’ils soient chercheurs, développeurs, studios créatifs ou entreprises industrielles. Retrouvez toutes les actualités liées à ces avancées sur Techpi.fr.

Theo Richard TechPi
Theo Richard

Théo Richard est le rédacteur spécialisé dans les nouvelles technologies, le web et l’innovation numérique. Curieux de nature et passionné par l’évolution constante de l’univers digital, il s’efforce de rendre accessible au plus grand nombre les enjeux techniques et les tendances qui façonnent notre quotidien connecté.

Depuis plusieurs années, Théo décrypte l’actualité tech avec un regard critique et enthousiaste. Qu’il s’agisse d’intelligence artificielle, de cybersécurité, de culture internet ou de gadgets émergents, il met un point d’honneur à proposer des articles clairs, pertinents et engagés. Il s’intéresse autant à l’impact sociétal des technologies qu’à leurs usages concrets, toujours avec un ton proche des lecteurs.

Sur TechPi.fr, Théo Richard partage ses analyses, ses tests de produits et ses coups de cœur numériques. Il croit fermement au rôle éducatif de la tech et à la nécessité de la comprendre pour mieux l’appréhender.

Contactez Theo : theo.richard@techpi.fr

Articles: 96

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *