Nvidia franchit une nouvelle étape décisive dans l’accélération du calcul intensif en déployant pour la première fois ses supercalculateurs IA Grace Blackwell Ultra au sein du cloud provider américain CoreWeave. Grâce à une collaboration stratégique avec Dell Technologies, ces systèmes de nouvelle génération deviennent opérationnels, annonçant une ère inédite pour l’intelligence artificielle à très grande échelle.
Une avancée matérielle majeure pour l’intelligence artificielle
Les systèmes Grace Blackwell Ultra s’appuient sur une architecture GPU inédite centrée autour des puces Blackwell Ultra, composées de 208 milliards de transistors. Fabriqués via un procédé gravé en 4NP par TSMC, ces GPU utilisent une architecture à deux chips reliés par une interconnexion de 10 To/s, agissant comme une unité GPU unique de taille colossale.
Le système phare déployé, le GB300 NVL72, associe 72 GPU Blackwell Ultra à 36 processeurs Grace CPU dotés collectivement de 2 592 cœurs Arm Neoverse V2. Cette synergie offre une bande passante NVLink de 130 To/s avec un total de 40 To de mémoire unifiée, accompagnée d’une bande passante mémoire GPU de 21 To/s et CPU de 18 To/s.
Selon le rapport publié par Tom’s Hardware, ces supercalculateurs représentent une performance théorique IA atteignant jusqu’à 1 100 pétaflops en FP4, notamment grâce aux nouveaux Tensor Cores capables de prendre en charge une diversité de formats numériques : FP4, FP8, FP16, INT8, TF32, entre autres.
CoreWeave : premier partenaire à bénéficier de cette puissance
CoreWeave, acteur en pleine croissance du cloud computing spécialisé en IA et rendu graphique, devient le tout premier opérateur à recevoir cette technologie révolutionnaire. La livraison a été assurée par Dell, qui a géré l’assemblage des clusters et leur intégration dans l’infrastructure cloud haute performance de CoreWeave.
Ce déploiement offre à CoreWeave une capacité de calcul inédite pour répondre aux besoins de ses clients dans des domaines tels que la génération vidéo en temps réel, les assistants conversationnels avancés ou encore l’analyse prédictive de données à grande échelle. Ces charges de travail nécessitent une scalabilité extrême et une faible latence, rendues possibles par l’intégration de réseaux ConnectX-8 SuperNIC, supportant une connectivité de 800 Gb/s par GPU.
Transformer l’accès à la puissance IA dans le cloud
Le partenariat entre Nvidia, CoreWeave et Dell a pour ambition de rendre l’infrastructure IA haut de gamme plus accessible. En proposant les supercalculateurs GB300 NVL72 via des services cloud, CoreWeave permet à une nouvelle vague d’entreprises, de start-ups et de laboratoires de bénéficier d’un accès direct à cette puissance calculatoire monumentale.
Ces systèmes sont conçus pour entraîner et inférer des modèles IA gigantesques, parfois constitués de plusieurs billions de paramètres. Ils permettent une inférence jusqu’à 30 fois plus rapide que les systèmes basés sur l’ancienne génération Hopper. Cette avancée ouvre la voie à de nouvelles applications industrielles, scientifiques et créatives, tout en réduisant considérablement les temps de calcul et les coûts opérationnels.
Une évolution technologique spectaculaire
Le GPU Blackwell Ultra introduit également des innovations majeures, comme un moteur Transformer de seconde génération et un système de micro-scalage tensoriel, qui permettent d’augmenter la performance tout en conservant une précision élevée. Ces optimisations sont cruciales pour les modèles de langage de très grande taille (LLM) et les structures Mixture-of-Experts, devenues centrales dans l’intelligence artificielle générative.
Comparée à la génération Hopper, l’architecture Grace Blackwell propose 40 fois plus de performance IA en inférence. Elle bénéficie également d’une mémoire HBM3e améliorée et de nouveaux mécanismes d’accélération mathématique, pensée pour les modèles de nouvelle génération plus profonds et complexes.
Ce que cela signifie pour l’avenir de l’IA
La mise en opération de ces supercalculateurs représente bien plus que l’ajout d’une nouvelle architecture graphique. Il s’agit d’un changement de paradigme dans le développement de modèles IA à très grande échelle, y compris dans les secteurs comme la santé, l’ingénierie, les médias ou la finance.
Toutefois, cette avancée s’accompagne de défis : la maîtrise énergétique, le refroidissement liquide spécialisé et la gestion de volumes massifs de données deviennent des impératifs techniques. Sans une expertise adaptée, exploiter efficacement cette puissance s’avère complexe.
Pour faire face à cela, Nvidia prévoit des déclinaisons abordables comme le GB10 SoC, une puce de bureau capable de fournir 1 pétaflop IA. Celle-ci vise à démocratiser l’accès à des capacités d’IA jusque-là réservées aux géants du cloud, en offrant aux développeurs individuels ou petites structures un outil puissant et local.
Une feuille de route ambitieuse pour 2025
- Janvier 2025 : Lancement du SoC Grace Blackwell GB10, apportant l’architecture Blackwell sur poste de travail.
- Mars 2025 : Révélation des caractéristiques du premier supercalculateur Grace Blackwell, le GB200 NVL72.
- Avril 2025 : Présentation officielle du GB300 NVL72, version améliorée à 72 GPU et 36 CPUs.
- Mi-2025 : Déploiement chez CoreWeave avec l’accompagnement de Dell.
Conclusion : un nouveau sommet dans l’infrastructure IA
L’arrivée des supercalculateurs Grace Blackwell Ultra signe une nouvelle ère. Elle marque le passage d’une puissance réservée à quelques centres de recherche à une accessibilité croissante via le cloud. Nvidia, en s’appuyant sur un partenariat solide avec Dell et CoreWeave, pose les bases d’un écosystème IA distribué à très haute performance.
En combinant intégration verticale, puissance brute et flexibilité cloud, cette nouvelle architecture ouvre des opportunités majeures pour les acteurs de l’IA, qu’ils soient chercheurs, développeurs, studios créatifs ou entreprises industrielles. Retrouvez toutes les actualités liées à ces avancées sur Techpi.fr.