L’informatique accélérée des centres de données propulse les revenus record de Nvidia | Ordinateur hebdomadaire

Nvidia a déclaré un chiffre d’affaires record de 13,51 milliards de dollars pour son deuxième trimestre 2024, soit une augmentation de 101 % par rapport à l’année dernière, grâce aux applications informatiques accélérées par l’intelligence artificielle (IA).

La société a enregistré une augmentation de 171 % des revenus des centres de données par rapport à l’année précédente, qui, selon la directrice financière Collette Kress, a été menée par les fournisseurs de services cloud et les grandes sociétés Internet grand public.

Elle a déclaré que la forte demande pour la plate-forme Nvidia HGX basée sur les architectures de processeur graphique (GPU) Hopper et Ampere de la société était principalement motivée par le développement de grands modèles de langage et d’IA générative. L’activité informatique des centres de données de l’entreprise a augmenté de 195 % par rapport à l’année dernière, grâce à la demande pour la plate-forme HGX basée sur Hopper, a-t-elle ajouté.

Dans une transcription de l’appel gagnant, publiée sur Seeking Alpha, Kress a déclaré qu’il y avait eu une énorme demande pour les plates-formes de calcul accéléré et d’IA de Nvidia.

Faisant référence aux projets de l’administration Biden visant à limiter l’exportation de produits de haute technologie vers la Chine, elle a déclaré : À long terme, les restrictions interdisant la vente de nos GPU de centres de données à la Chine, si elles sont mises en œuvre, entraîneront une perte permanente et une opportunité pour le L’industrie américaine doit être compétitive et leader sur l’un des plus grands marchés du monde.

Lorsqu’on lui a demandé s’il y avait suffisamment d’applications pour propulser la demande de calcul accéléré dont Nvidia a bénéficié, le co-fondateur Jensen Huang a décrit l’opportunité de distiller des modèles d’IA en grand langage en modèles plus petits.

[When] vous créez ces grands modèles de langage et en dérivez des versions plus petites des modèles, il s’agit essentiellement d’un modèle enseignant-élève. C’est un processus appelé distillation. Ces modèles plus petits peuvent avoir d’excellentes capacités sur une compétence particulière, mais ils ne se généralisent pas non plus, a déclaré Huang.

En examinant les applications d’entreprise qui peuvent tirer parti des progrès de l’informatique accélérée et de l’IA, Huang a évoqué la collaboration continue de l’entreprise avec VMware, qui améliore la gérabilité informatique. Il a déclaré que pour que les entreprises puissent former et déployer des systèmes d’IA, elles doivent disposer de systèmes de gestion, d’un système d’exploitation, d’une sécurité et d’une infrastructure de centre de données définie par logiciel, ce qui relève du domaine de VMware.

Nous travaillons depuis plusieurs années avec VMware pour lui permettre de prendre en charge non seulement la virtualisation des CPU, mais aussi une virtualisation des GPU, ainsi que les capacités de calcul distribué des GPU, prenant en charge le BlueField de Nvidia pour un réseau haute performance.

Avec plusieurs centaines de milliers de clients VMware dans le monde, il a déclaré que la VMware Private AI Foundation permet aux entreprises de déployer l’IA dans leurs propres centres de données.

Selon Huang, en combinaison avec les nouvelles offres de serveurs HP, Dell et Lenovo basées sur l’architecture Nvidia L40S, toute entreprise peut créer un centre de données d’IA de pointe et travailler avec ses propres modèles et applications d’IA génératives.

www.actusduweb.com
Suivez Actusduweb sur Google News


Ce site utilise des cookies pour améliorer votre expérience. Nous supposerons que cela vous convient, mais vous pouvez vous désinscrire si vous le souhaitez. J'accepte Lire la suite