Amazon Web Services (AWS), société d’Amazon.com (NASDAQ: AMZN), et NVIDIA (NASDAQ: NVDA) ont annoncé aujourd’hui l’intégration de la nouvelle plateforme GPU NVIDIA Blackwell à AWS. Cette initiative propose le superchip NVIDIA GB200 Grace Blackwell et les GPU à cœur tensoriel B100, étendant la collaboration stratégique de longue date entre les entreprises pour fournir l’infrastructure, le logiciel et les services les plus avancés et sécurisés, aidant les clients à débloquer de nouvelles capacités en intelligence artificielle (IA) générative.
NVIDIA et AWS combinent le meilleur de leurs technologies, y compris les systèmes multi-nœuds les plus récents de NVIDIA basés sur la plateforme NVIDIA Blackwell et le logiciel d’IA, le système Nitro d’AWS et le service de gestion des clés avancé AWS KMS, le réseau Elastic Fabric Adapter (EFA) à échelle de pétabits et l’hyper-évolutivité des clusters Amazon Elastic Compute Cloud (Amazon EC2) UltraCluster. Ensemble, ils fournissent l’infrastructure et les outils permettant aux clients de construire et d’exécuter en temps réel des modèles de langue de grande taille (LLMs) multi-trillionnaires plus rapidement, à plus grande échelle et à un coût inférieur que les GPU de la génération précédente de NVIDIA sur Amazon EC2.
« La collaboration approfondie entre nos deux organisations remonte à plus de 13 ans, lorsque nous avons ensemble lancé la première instance GPU cloud sur AWS, et aujourd’hui nous offrons l’éventail le plus large de solutions GPU NVIDIA pour les clients », a déclaré Adam Selipsky, PDG d’AWS. « Le processeur Grace Blackwell de prochaine génération de NVIDIA marque un pas significatif en avant dans l’IA générative et la calcul par GPU. Lorsqu’il est combiné avec le puissant réseau Elastic Fabric Adapter d’AWS, l’hyper-clustering d’Amazon EC2 UltraClusters et nos avancées en virtualisation et en sécurité avec le système Nitro, nous rendons possible pour les clients de construire et d’exécuter des LLMs multi-trillionnaires plus rapidement, à plus grande échelle et plus sûrement que n’importe où ailleurs. Ensemble, nous continuons d’innover pour faire d’AWS le meilleur endroit pour exécuter les GPU NVIDIA dans le cloud. »
« L’IA est en train de mener à des progrès à un rythme sans précédent, menant à de nouvelles applications, modèles d’affaires et innovations dans toutes les industries », a déclaré Jensen Huang, fondateur et PDG de NVIDIA. « Notre collaboration avec AWS accélère les nouvelles capacités de l’IA générative et fournit aux clients une puissance de calcul sans précédent pour repousser les limites du possible. »
AWS proposera la plateforme NVIDIA Blackwell, qui comprend GB200 NVL72 avec 72 GPU Blackwell et 36 CPU Grace interconnectés par NVIDIA NVLink de cinquième génération. Connectés avec le puissant réseau d’Amazon (EFA) et soutenus par la virtualisation avancée (système Nitro d’AWS) et l’hyper-clustering (Amazon EC2 UltraClusters), les clients peuvent dimensionner à des milliers de superchips GB200. NVIDIA Blackwell sur AWS offre une avancée massive dans l’accélération des charges de travail d’inférence pour les modèles de langue à ressources intensives et multi-trillionnaires de paramètres.
S’appuyant sur le succès des instances EC2 P5 alimentées par NVIDIA H100 disponibles pour les clients via des blocs de capacité d’Amazon EC2 pour ML, AWS prévoit de proposer des instances EC2 avec les nouveaux GPU B100 déployés dans EC2 UltraClusters pour accélérer la formation et l’inférence d’IA générative à grande échelle. Les GB200 seront également disponibles sur NVIDIA DGX™ Cloud, une plateforme d’IA co-développée sur AWS, qui offre aux développeurs d’entreprise un accès dédié à l’infrastructure et au logiciel nécessaires pour construire et déployer des modèles avancés d’IA générative. Les instances DGX Cloud alimentées par Blackwell sur AWS accéléreront le développement de l’IA générative de pointe et des LLMs qui peuvent atteindre plus de 1 trillion de paramètres.
Ce projet réaffirme l’engagement d’AWS et NVIDIA à accélérer le développement des applications d’IA générative et à promouvoir les cas d’utilisation dans les soins de santé et les sciences de la vie, en élevant la sécurité de l’IA avec le système Nitro d’AWS, AWS KMS, EFA crypté et le cryptage Blackwell. Avec le Projet Ceiba, NVIDIA et AWS cherchent à faire avancer l’innovation de l’IA générative en construisant l’un des superordinateurs IA les plus rapides du monde, hébergé exclusivement sur AWS. Ce superordinateur sans précédent, disponible pour la recherche et le développement de NVIDIA, utilisera le système GB200 NVL72, qui comprend 20,736 GPU B200 connectés à 10,368 CPU NVIDIA Grace, interconnectés à travers le réseau EFA de quatrième génération, fournissant jusqu’à 800 Gbps par superchip de faible latence, haute bande passante de réseau — capable de traiter un massif 414 exaflops d’IA —, une augmentation de performance 6 fois supérieure aux plans antérieurs de construire Ceiba sur l’architecture Hopper. Les équipes de recherche et développement de NVIDIA utiliseront Ceiba pour avancer en IA pour LLMs, graphiques (génération d’images/vidéos/3D) et simulation, biologie numérique, robotique, voitures autonomes, prévision climatique NVIDIA Earth-2 et plus pour aider NVIDIA à propulser les innovations futures en IA générative.
De plus, AWS et NVIDIA collaborent pour accélérer le développement d’applications d’IA générative et avancer dans les cas d’utilisation dans les soins de santé et les sciences de la vie. Ils s’associent pour offrir une infrastructure haute performance, à faible coût pour l’inférence d’IA générative avec l’intégration d’Amazon SageMaker avec les microservices d’inférence de NVIDIA NIM™, disponibles avec NVIDIA IA Enterprise. Les clients peuvent utiliser cette combinaison pour déployer rapidement des Modèles Fondamentaux (FMs) pré-compilés et optimisés à s’exécuter sur les GPU NVIDIA dans SageMaker, réduisant le temps de mise sur le marché des applications d’IA générative.
AWS et NVIDIA ont également formé une équipe pour étendre la découverte de médicaments assistée par ordinateur avec de nouveaux FMs de NVIDIA BioNeMo™ pour la chimie générative, la prédiction de structures protéiques et la compréhension de l’interaction des médicaments avec les cibles. Ces nouveaux modèles seront bientôt disponibles sur AWS HealthOmics, un service conçu spécifiquement qui aide les organisations de soins de santé et de sciences de la vie à stocker, interroger et analyser des données génomiques, transcriptomiques et autres données omiques.
Les équipes d’AWS HealthOmics et de NVIDIA Healthcare travaillent également ensemble pour lancer des microservices d’IA générative pour faire avancer la découverte de médicaments, la medtech et la santé numérique, offrant un nouveau catalogue d’endpoints de cloud accélérés par GPU pour la biologie, la chimie, l’imagerie et les données de santé, afin que les entreprises de soins de santé puissent tirer parti des dernières avancées en IA générative sur AWS.