Dans un mouvement qui promet de stimuler de manière significative le développement et l’adoption de l’intelligence artificielle (IA) générative, Google Cloud et NVIDIA ont annoncé aujourd’hui un approfondissement de leur partenariat. L’objectif est de fournir à la communauté de l’apprentissage automatique (ML) la technologie qui accélère leurs efforts pour construire, faire évoluer et gérer facilement des applications d’IA générative.
Dans le cadre de cet accord élargi, Google a annoncé qu’il adoptera la nouvelle plateforme informatique NVIDIA Grace Blackwell AI, ainsi que le service NVIDIA DGX Cloud sur Google Cloud. De plus, la plateforme DGX™ Cloud avec la technologie NVIDIA H100 est désormais disponible de manière générale sur Google Cloud.
Tirant parti de leur récente collaboration pour optimiser la famille de modèles ouverts Gemma, Google adoptera également les microservices d’inférence NVIDIA NIM pour fournir aux développeurs une plateforme ouverte et flexible pour s’entraîner et déployer en utilisant leurs outils et cadres préférés. Les sociétés ont également annoncé un support pour JAX sur les GPU NVIDIA et pour les instances Vertex AI avec la technologie des GPU NVIDIA H100 et L4 Tensor Core.
« La force de notre partenariat de longue date avec NVIDIA commence au niveau du matériel et s’étend à travers notre portefeuille, des accélérateurs GPU de dernière génération à l’écosystème logiciel et à notre plateforme gérée Vertex AI », a déclaré le PDG de Google Cloud, Thomas Kurian. « Avec NVIDIA, notre équipe s’engage à fournir une plateforme IA hautement accessible, ouverte et complète pour les développeurs ML ».
De son côté, Jensen Huang, fondateur et PDG de NVIDIA, a noté : « Les entreprises recherchent des solutions qui leur permettent de tirer le meilleur parti de l’IA générative en semaines et mois au lieu d’années. Avec des offres d’infrastructure étendues et de nouvelles intégrations avec la pile complète IA de NVIDIA, Google Cloud continue de fournir aux clients une plateforme ouverte et flexible pour faire évoluer facilement les applications d’IA générative ».
Les nouvelles intégrations entre NVIDIA et Google Cloud s’appuient sur l’engagement de longue date des sociétés à fournir à la communauté IA des capacités de pointe à chaque couche de la pile IA. Les composants clés de l’expansion du partenariat comprennent:
- Adoption de NVIDIA Grace Blackwell : la nouvelle plateforme Grace Blackwell permet aux organisations de construire et d’exécuter l’inférence en temps réel sur de grands modèles de langue de billions de paramètres. Google adopte la plateforme pour plusieurs déploiements internes et sera l’un des premiers fournisseurs de cloud à offrir des instances avec technologie Blackwell.
- DGX Cloud avec technologie Grace Blackwell arrivera sur Google Cloud : Google apportera les systèmes NVIDIA GB200 NVL72, qui combinent 72 GPU Blackwell et 36 CPU Grace interconnectés par NVLink® de cinquième génération, à son infrastructure cloud hautement évolutive et performante. Conçus pour un entraînement et une inférence énergétiquement efficients à l’ère des LLM de billions de paramètres, les systèmes NVIDIA GB200 NVL72 seront disponibles via DGX Cloud, une plateforme IA offrant une expérience sans serveur pour les développeurs d’entreprise construisant et servant des LLM. DGX Cloud est désormais disponible de manière générale dans les instances VM A3 de Google Cloud avec GPU NVIDIA H100 Tensor Core.
- Support pour JAX sur GPU : Google Cloud et NVIDIA ont collaboré pour apporter les avantages de JAX aux GPU de NVIDIA, élargissant l’accès à l’entraînement LLM à grande échelle parmi la communauté ML la plus large. JAX est un cadre pour l’apprentissage automatique haute performance qui est orienté compilateur et natif en Python, ce qui en fait l’un des cadres les plus faciles à utiliser et les plus performants pour l’entraînement LLM. Les professionnels de l’IA peuvent maintenant utiliser JAX avec les GPU NVIDIA H100 sur Google Cloud via MaxText et Accelerated Processing Kit (XPK).
- NVIDIA NIM sur Google KubernetesKubernetes (communément appelé en anglais « K8s ») … Engine (GKE) : les microservices d’inférence NVIDIA NIM, partie de la plateforme logicielle NVIDIA AI Enterprise, seront intégrés à GKE. Basés sur des moteurs d’inférence incluant TensorRT-LLM™, NIM aide à accélérer le déploiement de l’IA générative dans les entreprises, prend en charge une large gamme de modèles IA leaders et garantit une inférence IA parfaite et évolutive.
- Support pour NVIDIA NeMo : Google Cloud a facilité le déploiement du cadre NVIDIA NeMo™ sur sa plateforme via Google Kubernetes Engine (GKE) et Google Cloud HPC Toolkit. Cela permet aux développeurs d’automatiser et d’augmenter l’échelle de l’entraînement et du service des modèles IA générative, et leur permet de déployer rapidement des environnements clé en main à travers des plans personnalisables qui initient le processus de développement. NVIDIA NeMo, partie de NVIDIA AI Enterprise, est également disponible sur Google Marketplace, offrant aux clients une autre façon d’accéder facilement à NeMo et à d’autres cadres pour accélérer le développement IA.
- Vertex AI et Dataflow étendent le support pour les GPU NVIDIA : pour faire avancer la science des données et l’analyse, Vertex AI supporte maintenant les VM A3 de Google Cloud avec la technologie des GPU NVIDIA H100 et les VM G2 avec la technologie des GPU NVIDIA L4 Tensor Core. Cela fournit aux équipes de MLOps une infrastructure et des outils évolutifs pour gérer et déployer des applications IA avec confiance. Dataflow a également étendu le support pour le traitement des données accéléré par les GPU NVIDIA.
Google Cloud a depuis longtemps fourni des instances de VM GPU avec la technologie matérielle de pointe de NVIDIA en conjonction avec les innovations leaders de Google. Les GPU NVIDIA sont un composant central de Google Cloud AI Hypercomputer, une architecture de supercalcul qui unifie un matériel optimisé pour la performance, un logiciel ouvert et des modèles de consommation flexibles. Le partenariat holistique permet aux chercheurs, scientifiques et développeurs IA d’entraîner, d’affiner et de servir les modèles IA les plus grands et les plus sophistiqués, désormais avec encore plus de leurs outils et cadres préférés optimisés conjointement et disponibles sur Google Cloud.
Des clients tels que Runway, Palo Alto Networks et Writer tirent déjà parti des avantages de ce partenariat étendu pour stimuler leurs plateformes et flux de travail IA. Avec des performances significativement améliorées, des coûts réduits et la capacité d’évoluer vers des milliers de GPU dans une structure unique, les entreprises peuvent offrir des modèles de la plus haute qualité qui surpassent ceux des sociétés avec des équipes plus grandes et des budgets plus importants.
En résumé, l’expansion du partenariat entre Google Cloud et NVIDIA marque un jalon important dans l’avancement de l’IA générative. En fournissant aux développeurs une plateforme ouverte et flexible avec les dernières innovations en matière de matériel et de logiciel, les sociétés sont en train de tracer la voie pour une adoption plus large des applications IA transformatrices dans les entreprises.