NVIDIA MGX offre aux fabricants de systèmes une architecture modulaire pour répondre aux divers besoins de calcul accéléré des centres de données mondiaux

QCT et Supermicro parmi les premiers à utiliser les spécifications de serveur permettant plus de 100 configurations système pour accélérer les charges de travail AI, HPC et Omniverse

INFORMATIQUE—Pour répondre aux divers besoins informatiques accélérés des centres de données du monde entier, NVIDIA a dévoilé aujourd’hui le NVIDIA MGX™ spécification de serveur, qui fournit aux fabricants de systèmes une architecture de référence modulaire pour créer rapidement et à moindre coût plus de 100 variantes de serveur adaptées à une large gamme d’applications d’intelligence artificielle, de calcul haute performance et d’omniverse.

Rack ASRock, ASUS, GIGABYTE, Pegatron, QCT et Supermicro adoptera MGX, qui peut réduire les coûts de développement jusqu’à trois quarts et réduire le temps de développement de deux tiers à seulement six mois.

« Les entreprises recherchent des options de calcul plus accélérées lors de la conception de centres de données qui répondent à leurs besoins commerciaux et applicatifs spécifiques », a déclaré Kaustubh Sanghani, vice-président des produits GPU chez NVIDIA. « Nous avons créé MGX pour aider les organisations à démarrer l’IA d’entreprise, tout en leur faisant économiser beaucoup de temps et d’argent. »

Avec MGX, les fabricants commencent avec une architecture système de base optimisée pour le calcul accéléré pour leur châssis de serveur, puis sélectionnent leur GPU, DPU et CPU. Les variations de conception peuvent répondre à des charges de travail uniques, telles que le HPC, la science des données, les grands modèles de langage, l’informatique de pointe, les graphiques et la vidéo, l’IA d’entreprise et la conception et la simulation. Plusieurs tâches telles que la formation à l’IA et la 5G peuvent être gérées sur une seule machine, tandis que les mises à niveau vers les futures générations de matériel peuvent se faire sans friction. MGX peut également être facilement intégré dans les centres de données cloud et d’entreprise.

Collaboration avec les leaders de l’industrie

QCT et Supermicro seront les premiers à être commercialisés, les conceptions MGX apparaissant en août. Le système ARS-221GL-NR de Supermicro, annoncé aujourd’hui, comprendra la superpuce CPU NVIDIA Grace™, tandis que le système S74G-2U de QCT, également annoncé aujourd’hui, utilisera la Superpuce NVIDIA GH200 Grace Hopper.

De plus, SoftBank Corp. prévoit de déployer plusieurs centres de données hyperscale à travers le Japon et d’utiliser MGX pour allouer dynamiquement les ressources GPU entre les applications génératives d’IA et 5G.

« Alors que l’IA générative imprègne les modes de vie des entreprises et des consommateurs, la construction de la bonne infrastructure au bon coût est l’un des plus grands défis des opérateurs de réseau », a déclaré Junichi Miyakawa, président et PDG de SoftBank Corp. « Nous espérons que NVIDIA MGX pourra relever de tels défis. et permettent une IA multi-usage, la 5G et plus encore en fonction des exigences de la charge de travail en temps réel. »

Différentes conceptions pour différents besoins

Les centres de données doivent de plus en plus répondre aux exigences de capacités de calcul croissantes et de réduction des émissions de carbone pour lutter contre le changement climatique, tout en réduisant les coûts.

Les serveurs de calcul accéléré de NVIDIA offrent depuis longtemps des performances de calcul et une efficacité énergétique exceptionnelles. Désormais, la conception modulaire de MGX donne aux fabricants de systèmes la possibilité de répondre plus efficacement au budget, à la fourniture d’énergie, à la conception thermique et aux exigences mécaniques de chaque client.

Plusieurs facteurs de forme offrent une flexibilité maximale

MGX fonctionne avec différents facteurs de forme et est compatible avec les générations actuelles et futures de matériel NVIDIA, notamment :

  • Châssis : 1U, 2U, 4U (refroidissement par air ou liquide)
  • GPU : portefeuille complet de GPU NVIDIA, y compris les derniers H100, L40, L4
  • Processeurs : NVIDIA Grace CPU Superchip, GH200 Grace Hopper Superchip, x86 CPU
  • Mise en réseau : NVIDIA BlueField®-3 DPU, ConnectX®-7 adaptateurs réseau

MGX diffère de NVIDIA HGX™ en ce sens qu’il offre une compatibilité flexible et multigénérationnelle avec les produits NVIDIA pour garantir que les constructeurs de systèmes peuvent réutiliser les conceptions existantes et adopter facilement les produits de nouvelle génération sans refontes coûteuses. En revanche, HGX est basé sur une carte de base multi-GPU connectée à NVLink®, adaptée à l’échelle pour créer le nec plus ultra des systèmes d’IA et de HPC.

Un logiciel pour accélérer encore plus

En plus du matériel, MGX est pris en charge par la pile logicielle complète de NVIDIA, qui permet aux développeurs et aux entreprises de créer et d’accélérer l’IA, le HPC et d’autres applications. Ceci comprend NVIDIA IA Entreprisela couche logicielle de la plate-forme NVIDIA AI, qui comprend plus de 100 frameworks, modèles pré-entraînés et outils de développement pour accélérer l’IA et la science des données pour un développement et un déploiement d’IA d’entreprise entièrement pris en charge.

MGX est compatible avec les racks de serveurs Open Compute Project et Electronic Industries Alliance, pour une intégration rapide dans les centres de données d’entreprise et cloud.

Regardez le fondateur et PDG de NVIDIA, Jensen Huang, discuter de la spécification du serveur MGX dans son discours d’ouverture à INFORMATIQUE.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite