Google Cloud et NVIDIA étendent leur partenariat pour faire progresser l’informatique, les logiciels et les services d’IA
La technologie d’IA générative NVIDIA utilisée par Google DeepMind et les équipes de recherche de Google est désormais optimisée et disponible pour les clients Google Cloud du monde entier
Google Cloud Next — Google Cloud et NVIDIA ont annoncé aujourd’hui une nouvelle infrastructure et de nouveaux logiciels d’IA permettant aux clients de créer et de déployer des modèles massifs pour l’IA générative et d’accélérer les charges de travail de science des données.
Lors d’une discussion au coin du feu sur Google Cloud Next, Thomas Kurian, PDG de Google Cloud, et Jensen Huang, fondateur et PDG de NVIDIA, ont expliqué comment le partenariat apporte des services d’apprentissage automatique de bout en bout à certains des plus grands clients d’IA au monde, notamment en le rendant des supercalculateurs d’IA faciles à exécuter avec des offres Google Cloud basées sur les technologies NVIDIA. Les nouvelles intégrations matérielles et logicielles utilisent les mêmes technologies NVIDIA utilisées au cours des deux dernières années par Google DeepMind et les équipes de recherche de Google.
« Nous sommes à un point d’inflexion où l’informatique accélérée et l’IA générative se sont associées pour accélérer l’innovation à un rythme sans précédent », a déclaré Huang. « Notre collaboration élargie avec Google Cloud aidera les développeurs à accélérer leur travail avec une infrastructure, des logiciels et des services qui améliorent l’efficacité énergétique et réduisent les coûts. »
« Google Cloud a une longue histoire d’innovation en matière d’IA pour favoriser et accélérer l’innovation pour nos clients », a déclaré Kurian. « De nombreux produits Google sont construits et utilisés sur des GPU NVIDIA, et nombre de nos clients recherchent le calcul accéléré NVIDIA pour alimenter un développement efficace de LLM afin de faire progresser l’IA générative. »
Intégrations NVIDIA pour accélérer le développement de l’IA et de la science des données
Le framework de Google pour la création de modèles LLM (Massive Large Language Models), PaxML, est désormais optimisé pour le calcul accéléré NVIDIA.
Initialement conçu pour couvrir plusieurs tranches d’accélérateur Google TPU, PaxML permet désormais aux développeurs d’utiliser NVIDIA® H100 et A100 GPU Tensor Core pour une expérimentation et une évolutivité avancées et entièrement configurables. Un conteneur PaxML optimisé pour le GPU est disponible immédiatement dans le NVIDIA NGC™ catalogue de logiciels. De plus, PaxML fonctionne sur JAX, qui a été optimisé pour les GPU exploitant le compilateur OpenXLA.
Google DeepMind et d’autres chercheurs de Google sont parmi les premiers à utiliser PaxML avec les GPU NVIDIA pour des recherches exploratoires.
Le conteneur optimisé par NVIDIA pour PaxML sera disponible immédiatement sur le registre de conteneurs NVIDIA NGC pour les chercheurs, les startups et les entreprises du monde entier qui créent la prochaine génération d’applications basées sur l’IA.
De plus, les sociétés ont annoncé l’intégration par Google de Spark sans serveur avec les GPU NVIDIA via Dataproc de Google service. Cela aidera les data scientists à accélérer les charges de travail Apache Spark afin de préparer les données pour le développement de l’IA.
Ces nouvelles intégrations sont les dernières en date de la longue histoire de collaboration entre NVIDIA et Google. Ils croisent les annonces matérielles et logicielles, notamment :
- Google Cloud sur des machines virtuelles A3 optimisées par NVIDIA H100 — Google Cloud a annoncé aujourd’hui son outil spécialement conçu Machines virtuelles Google Cloud A3 alimentées par des GPU NVIDIA H100 sera généralement disponible le mois prochain, rendant la plate-forme d’IA de NVIDIA plus accessible à un large éventail de charges de travail. Par rapport à la génération précédente, les machines virtuelles A3 offrent une formation 3 fois plus rapide et une bande passante réseau considérablement améliorée.
- Les GPU NVIDIA H100 pour alimenter la plateforme Vertex AI de Google Cloud — Les GPU H100 devraient être généralement disponibles sur VertexAI dans les semaines à venir, permettant aux clients de développer rapidement des LLM d’IA génératifs.
- Google Cloud pour accéder à NVIDIA DGX™ GH200 — Google Cloud sera l’une des premières entreprises au monde à avoir accès au Supercalculateur IA NVIDIA DGX GH200 – alimenté par le Superpuce NVIDIA Grace Hopper™ – pour explorer ses capacités pour les charges de travail d’IA générative.
- NVIDIA DGX Cloud arrive sur Google Cloud — NVIDIA DGX-Cloud Le supercalculateur et les logiciels d’IA seront disponibles pour les clients directement à partir de leur navigateur Web pour offrir vitesse et évolutivité aux charges de travail de formation avancées.
- NVIDIA AI Enterprise sur Google Cloud Marketplace — Les utilisateurs peuvent accéder NVIDIA IA Entrepriseune plate-forme logicielle cloud sécurisée et native qui simplifie le développement et le déploiement d’applications d’entreprise, notamment l’IA générative, l’IA vocale, la vision par ordinateur, etc.
- Google Cloud est le premier à proposer NVIDIA L4 GPU — Plus tôt cette année, Google Cloud est devenu le premier fournisseur de cloud à proposer des GPU NVIDIA L4 Tensor Core avec le lancement de la VM G2. Les clients NVIDIA qui passent des CPU aux GPU L4 pour les charges de travail vidéo IA peuvent obtenir des performances jusqu’à 120 fois supérieures avec une efficacité 99 % supérieure. Les GPU L4 sont largement utilisés pour la génération d’images et de texte, ainsi que pour le transcodage audio/vidéo accéléré par VDI et l’IA.