La plateforme NVIDIA Blackwell arrive pour alimenter une nouvelle ère informatique
- Les nouveaux GPU Blackwell, NVLink et technologies de résilience permettent des modèles d’IA à l’échelle de milliards de paramètres
- Les nouveaux cœurs Tensor et le compilateur TensorRT-LLM réduisent jusqu’à 25 fois les coûts d’exploitation et l’énergie de l’inférence LLM.
- De nouveaux accélérateurs permettent des percées dans le traitement des données, la simulation technique, l’automatisation de la conception électronique, la conception de médicaments assistée par ordinateur et l’informatique quantique
- Adoption généralisée par tous les principaux fournisseurs de cloud, fabricants de serveurs et principales sociétés d’IA
CGV—À l’origine d’une nouvelle ère informatique, NVIDIA a annoncé aujourd’hui l’arrivée de la plate-forme NVIDIA Blackwell, permettant aux organisations du monde entier de créer et d’exécuter une IA générative en temps réel sur de grands modèles de langage comportant des milliers de milliards de paramètres, pour un coût et une consommation d’énergie jusqu’à 25 fois inférieurs à ceux de son prédécesseur.
L’architecture GPU Blackwell comprend six technologies transformatrices pour le calcul accéléré, qui contribueront à réaliser des percées dans le traitement des données, la simulation technique, l’automatisation de la conception électronique, la conception de médicaments assistée par ordinateur, l’informatique quantique et l’IA générative – autant d’opportunités industrielles émergentes pour NVIDIA.
« Depuis trois décennies, nous recherchons l’informatique accélérée, dans le but de permettre des avancées transformatrices telles que l’apprentissage profond et l’IA », a déclaré Jensen Huang, fondateur et PDG de NVIDIA. « L’IA générative est la technologie déterminante de notre époque. Blackwell est le moteur de cette nouvelle révolution industrielle. En travaillant avec les entreprises les plus dynamiques au monde, nous réaliserons la promesse de l’IA pour chaque secteur. »
Parmi les nombreuses organisations qui devraient adopter Blackwell figurent Amazon Web Services, Dell Technologies, Google, Meta, Microsoft, OpenAI, Oracle, Tesla et xAI.
Sundar Pichai, PDG d’Alphabet et de Google : « La mise à l’échelle de services tels que Search et Gmail auprès de milliards d’utilisateurs nous a beaucoup appris sur la gestion de l’infrastructure informatique. Alors que nous entamons le changement de plateforme d’IA, nous continuons à investir massivement dans l’infrastructure de nos propres produits et services, ainsi que pour nos clients Cloud. Nous avons la chance d’avoir un partenariat de longue date avec NVIDIA et nous sommes impatients de proposer les capacités révolutionnaires du GPU Blackwell à nos clients et équipes Cloud de Google, y compris Google DeepMind, afin d’accélérer les découvertes futures.
Andy Jassy, président et PDG d’Amazon : « Notre étroite collaboration avec NVIDIA remonte à plus de 13 ans, lorsque nous avons lancé la première instance cloud GPU au monde sur AWS. Aujourd’hui, nous proposons la plus large gamme de solutions GPU disponibles partout dans le cloud, prenant en charge les charges de travail accélérées les plus avancées technologiquement au monde. C’est pourquoi le nouveau GPU NVIDIA Blackwell fonctionnera si bien sur AWS et la raison pour laquelle NVIDIA a choisi AWS pour co-développer le projet Ceiba, combinant les superpuces Grace Blackwell de nouvelle génération de NVIDIA avec la virtualisation avancée du système AWS Nitro et la mise en réseau ultra-rapide de l’Elastic Fabric Adapter. , pour la recherche et le développement de NVIDIA en matière d’IA. Grâce à cet effort conjoint entre les ingénieurs AWS et NVIDIA, nous continuons à innover ensemble pour faire d’AWS le meilleur endroit où quiconque peut exécuter des GPU NVIDIA dans le cloud.
Michael Dell, fondateur et PDG de Dell Technologies : « L’IA générative est essentielle pour créer des systèmes plus intelligents, plus fiables et plus efficaces. Dell Technologies et NVIDIA travaillent ensemble pour façonner l’avenir de la technologie. Avec le lancement de Blackwell, nous continuerons à fournir la prochaine génération de produits et services accélérés à nos clients, en leur fournissant les outils dont ils ont besoin pour stimuler l’innovation dans tous les secteurs.
Demis Hassabis, cofondateur et PDG de Google DeepMind : « Le potentiel transformateur de l’IA est incroyable et il nous aidera à résoudre certains des problèmes scientifiques les plus importants au monde. Les capacités technologiques révolutionnaires de Blackwell fourniront le calcul critique nécessaire pour aider les esprits les plus brillants du monde à tracer de nouvelles découvertes scientifiques.
Mark Zuckerberg, fondateur et PDG de Meta : « L’IA alimente déjà tout, depuis nos grands modèles linguistiques jusqu’à nos recommandations de contenu, nos publicités et nos systèmes de sécurité, et elle ne fera que gagner en importance à l’avenir. Nous sommes impatients d’utiliser Blackwell de NVIDIA pour nous aider à former nos modèles open source Llama et à construire la prochaine génération de méta-IA et de produits grand public.
Satya Nadella, président exécutif et PDG de Microsoft : « Nous nous engageons à offrir à nos clients l’infrastructure la plus avancée pour alimenter leurs charges de travail d’IA. En apportant le processeur GB200 Grace Blackwell à nos centres de données du monde entier, nous nous appuyons sur notre longue histoire d’optimisation des GPU NVIDIA pour notre cloud, tout en concrétisant la promesse de l’IA pour les organisations du monde entier.
Sam Altman, PDG d’OpenAI : « Blackwell offre d’énormes progrès en termes de performances et accélérera notre capacité à proposer des modèles de pointe. Nous sommes ravis de continuer à travailler avec NVIDIA pour améliorer le calcul de l’IA.
Larry Ellison, président et directeur technique d’Oracle : « L’étroite collaboration d’Oracle avec NVIDIA permettra des avancées qualitatives et quantitatives dans les domaines de l’IA, de l’apprentissage automatique et de l’analyse des données. Pour que les clients puissent découvrir des informations plus exploitables, il faut un moteur encore plus puissant comme Blackwell, spécialement conçu pour le calcul accéléré et IA générative.
Elon Musk, PDG de Tesla et xAI : « Il n’y a actuellement rien de mieux que le matériel NVIDIA pour l’IA. »
Nommée en l’honneur de David Harold Blackwell, mathématicien spécialisé dans la théorie des jeux et les statistiques et premier chercheur noir intronisé à la National Academy of Sciences, la nouvelle architecture succède à l’architecture NVIDIA Hopper™, lancée il y a deux ans.
Les innovations de Blackwell pour alimenter le calcul accéléré et l’IA générative
Les six technologies révolutionnaires de Blackwell, qui permettent ensemble la formation de l’IA et l’inférence LLM en temps réel pour des modèles évoluant jusqu’à 10 000 milliards de paramètres, comprennent :
- La puce la plus puissante au monde — Dotés de 208 milliards de transistors, les GPU à architecture Blackwell sont fabriqués à l’aide d’un processus TSMC 4NP personnalisé avec des puces GPU à limite de deux réticules connectées par une liaison puce à puce de 10 To/seconde en un seul GPU unifié.
- Moteur de transformateur de deuxième génération — Alimenté par la nouvelle prise en charge de la mise à l’échelle des micro-tenseurs et par les algorithmes avancés de gestion de la plage dynamique de NVIDIA intégrés aux frameworks NVIDIA TensorRT™-LLM et NeMo Megatron, Blackwell prendra en charge le double des tailles de calcul et de modèle avec de nouvelles capacités d’inférence d’IA à virgule flottante 4 bits.
- NVLink de cinquième génération — Pour accélérer les performances des modèles d’IA comportant plusieurs milliards de paramètres et mélangeant des experts, la dernière itération de NVIDIA NVLink® offre un débit bidirectionnel révolutionnaire de 1,8 To/s par GPU, garantissant une communication transparente à haut débit entre jusqu’à 576 GPU pour les applications les plus complexes. LLM.
- Moteur RAS — Les GPU alimentés par Blackwell incluent un moteur dédié pour la fiabilité, la disponibilité et la facilité d’entretien. De plus, l’architecture Blackwell ajoute des capacités au niveau de la puce pour utiliser la maintenance préventive basée sur l’IA pour exécuter des diagnostics et prévoir les problèmes de fiabilité. Cela maximise la disponibilité du système et améliore la résilience pour que les déploiements d’IA à grande échelle fonctionnent sans interruption pendant des semaines, voire des mois, et réduisent les coûts d’exploitation.
- IA sécurisée — Les capacités informatiques confidentielles avancées protègent les modèles d’IA et les données des clients sans compromettre les performances, avec la prise en charge de nouveaux protocoles de cryptage d’interface natifs, essentiels pour les secteurs sensibles à la confidentialité comme les soins de santé et les services financiers.
- Moteur de décompression — Un moteur de décompression dédié prend en charge les derniers formats, accélérant les requêtes de base de données pour offrir les plus hautes performances en matière d’analyse et de science des données. Dans les années à venir, le traitement des données, pour lequel les entreprises dépensent des dizaines de milliards de dollars chaque année, sera de plus en plus accéléré par le GPU.
Une superpuce massive
La superchip NVIDIA GB200 Grace Blackwell connecte deux GPU NVIDIA B200 Tensor Core au processeur NVIDIA Grace via une interconnexion puce à puce NVLink ultrabasse consommation de 900 Go/s.
Pour des performances d’IA les plus élevées, les systèmes alimentés par GB200 peuvent être connectés aux plates-formes Ethernet NVIDIA Quantum-X800 InfiniBand et Spectrum™-X800, également annoncées aujourd’hui, qui offrent une mise en réseau avancée à des vitesses allant jusqu’à 800 Gb/s.
Le GB200 est un composant clé du NVIDIA GB200 NVL72, un système multi-nœuds refroidi par liquide et à l’échelle du rack pour les charges de travail les plus gourmandes en calcul. Il combine 36 superpuces Grace Blackwell, qui comprennent 72 GPU Blackwell et 36 processeurs Grace interconnectés par NVLink de cinquième génération. De plus, le GB200 NVL72 comprend des unités de traitement de données NVIDIA BlueField®-3 pour permettre l’accélération du réseau cloud, le stockage composable, la sécurité zéro confiance et l’élasticité de calcul GPU dans les cloud IA hyperscale. Le GB200 NVL72 offre des performances jusqu’à 30 fois supérieures à celles du même nombre de GPU NVIDIA H100 Tensor Core pour les charges de travail d’inférence LLM, et réduit les coûts et la consommation d’énergie jusqu’à 25 fois.
La plate-forme agit comme un GPU unique avec 1,4 exaflops de performances d’IA et 30 To de mémoire rapide, et constitue un élément de base du dernier DGX SuperPOD.
NVIDIA propose le HGX B200, une carte serveur qui relie huit GPU B200 via NVLink pour prendre en charge les plates-formes d’IA générative basées sur x86. Le HGX B200 prend en charge des vitesses de mise en réseau allant jusqu’à 400 Gb/s via les plates-formes réseau NVIDIA Quantum-2 InfiniBand et Spectrum-X Ethernet.
Réseau mondial de partenaires Blackwell
Les produits basés sur Blackwell seront disponibles auprès de partenaires à partir de la fin de cette année.
AWS, Google Cloud, Microsoft Azure et Oracle Cloud Infrastructure seront parmi les premiers fournisseurs de services cloud à proposer des instances alimentées par Blackwell, tout comme les sociétés du programme NVIDIA Cloud Partner Applied Digital, CoreWeave, Crusoe, IBM Cloud et Lambda. Les cloud Sovereign AI fourniront également des services et une infrastructure cloud basés sur Blackwell, notamment Indosat Ooredoo Hutchinson, Nebius, Nexgen Cloud, Oracle EU Sovereign Cloud, Oracle US, UK et Australian Government Clouds, Scaleway, Singtel, Taiga Cloud de Northern Data Group, Shakti Cloud de Yotta Data Services et YTL Power International.
GB200 sera également disponible sur NVIDIA DGX™ Cloud, une plateforme d’IA co-conçue avec les principaux fournisseurs de services cloud qui offre aux développeurs d’entreprise un accès dédié à l’infrastructure et aux logiciels nécessaires pour créer et déployer des modèles d’IA génératifs avancés. AWS, Google Cloud et Oracle Cloud Infrastructure prévoient d’héberger de nouvelles instances basées sur NVIDIA Grace Blackwell plus tard cette année.
Cisco, Dell, Hewlett Packard Enterprise, Lenovo et Supermicro devraient livrer une large gamme de serveurs basés sur les produits Blackwell, tout comme Aivres, ASRock Rack, ASUS, Eviden, Foxconn, GIGABYTE, Inventec, Pegatron, QCT, Wistron, Wiwynn et Systèmes ZT.
De plus, un réseau croissant de créateurs de logiciels, notamment Ansys, Cadence et Synopsys — leaders mondiaux de la simulation technique — utiliseront des processeurs basés sur Blackwell pour accélérer leurs logiciels de conception et de simulation de systèmes et de pièces électriques, mécaniques et de fabrication. Leurs clients peuvent utiliser l’IA générative et l’informatique accélérée pour commercialiser leurs produits plus rapidement, à moindre coût et avec une efficacité énergétique plus élevée.
Assistance logicielle NVIDIA
La gamme de produits Blackwell est soutenue par NVIDIA IA Entreprise, le système d’exploitation de bout en bout pour l’IA de production. NVIDIA AI Enterprise inclut Microservices d’inférence NVIDIA NIM™ — également annoncé aujourd’hui — ainsi que des frameworks, bibliothèques et outils d’IA que les entreprises peuvent déployer sur des cloud, des centres de données et des postes de travail accélérés par NVIDIA.
Pour en savoir plus sur la plateforme NVIDIA Blackwell, regardez le Discours d’ouverture des CGV et s’inscrire pour assister aux séances de NVIDIA et des leaders de l’industrie au GTC, qui se déroule jusqu’au 21 mars.