Amazon Web Services et NVIDIA ont franchi une étape stratégique dans la course à l’infrastructure d’intelligence artificielle. Lors de AWS re:Invent 2025, les deux entreprises ont annoncé l’intégration des futurs chips Trainium4 avec NVIDIA NVLink Fusion, une plateforme d’interconnexion à l’échelle de rack conçue pour relier des dizaines d’accélérateurs en un seul « cerveau » haute performance.
Cette collaboration signifie que Trainium4, la prochaine génération d’accélérateurs IA d’AWS, sera conçue dès le départ pour fonctionner avec NVLink 6 et l’architecture de racks NVIDIA MGX. Il s’agit d’une alliance pluri-générationnelle entre le géant nord-américain et le leader des puces, visant à renforcer leur partenariat dans le domaine de la superinformatique.
Qu’est-ce que NVLink Fusion et pourquoi est-ce crucial pour Trainium4
NVLink Fusion se présente comme une plateforme d’infrastructure IA à l’échelle de rack, permettant aux hyperscalers et aux concepteurs d’ASICs personnalisés d’intégrer leurs propres puces avec l’écosystème NVIDIA : depuis l’interconnexion NVLink jusqu’à l’architecture MGX, en passant par les châssis de switches Vera-Rubin, et une large gamme de composants réseau, refroidissement et alimentation.
Au cœur de la proposition se trouve le chiplet NVLink Fusion, un module que les concepteurs peuvent « incruster » dans leurs ASICs pour les connecter directement au domaine NVLink. Associé au châssis de switches Vera-Rubin, basé sur la sixième génération de NVLink Switch et des SerDes de 400G, ce système permet de connecter jusqu’à 72 accélérateurs en réseau maillé complet, avec un débit de 3,6 TB/s par ASIC, pour un total de 260 TB/s en réseau vertical.
Concrètement, cela signifie que les futurs racks Trainium4 pourront fonctionner comme un superordinateur cohérent, avec une mémoire accessible entre accélérateurs via des lectures et écritures directes, opérations atomiques, et des capacités avancées telles que NVIDIA SHARP pour la réduction en réseau et le multicast accéléré.
La pression des géants du modèle et la réponse d’AWS
Ce mouvement intervient à un moment où l’infrastructure IA fait face à une pression sans précédent. Les nouveaux modèles de planification, de raisonnement et d’IA agentifiée, avec des centaines de milliards ou des billions de paramètres, ainsi que les architectures mixture-of-experts (MoE), exigent des clusters composés d’une dizaine à plusieurs centaines d’accélérateurs, interconnectés via des réseaux à très faible latence et à bande passante extrême.
Pour les hyperscalers, le déploiement de telles solutions n’est pas trivial : il ne suffit pas de concevoir une puce IA compétitive. Il faut également définir :
- Une architecture de rack sur mesure (bandejes, densité, gestion de la puissance).
- Un réseau à l’échelle verticale (NVLink ou autres) et horizontale (Ethernet, InfiniBand ou solutions propriétaires).
- Des systèmes de refroidissement liquide ou d’air à haute efficacité.
- La gestion de milliers de composants et de dizaines de fournisseurs, sans qu’un seul retard ne compromette tout le projet.
NVLink Fusion tente d’aborder cette problématique à la racine : il propose une « usine d’IA modulaire » où Trainium4 et d’autres ASICs personnalisés peuvent s’insérer sur une plateforme déjà éprouvée, réduisant ainsi les cycles de développement, les risques d’intégration et le délai de mise sur le marché.
Moins de risques, plus de rapidité : la valeur de l’écosystème NVIDIA
Au-delà de la technologie d’interconnexion, cette alliance permet à AWS de s’appuyer sur un écosystème complet :
- Architecture de rack NVIDIA MGX, conçue pour des configurations à haute densité.
- GPUs de dernière génération et futurs CPUs NVIDIA Vera, pouvant cohabiter avec Trainium4.
- Switches avec optique intégrée, ConnectX SuperNIC, et DPU BlueField.
- Outils de gestion et d’orchestration comme NVIDIA Mission Control.
Le but est qu’AWS puisse bâtir offres hétérogènes de silicium — Trainium, GPU NVIDIA, CPU Graviton — au sein d’une même infrastructure, partageant refroidissement, distribution de puissance et design de racks. Où auparavant il fallait dédier des projets séparés, il pourrait désormais exister une plateforme unique, flexible, optimisée pour différentes charges de travail d’entraînement et d’inférence.
Selon NVIDIA, connecter 72 accélérateurs en un seul domaine NVLink peut offrir jusqu’à 3 fois plus de performance et de chiffre d’affaires en inference comparé aux architectures antérieures, comme les configurations NVL8 avec NVLink de cinquième génération, toujours dans l’écosystème IA de la société.
Une étape supplémentaire dans la «coopétition» entre hyperscalers et NVIDIA
Cette intégration de Trainium4 avec NVLink Fusion possède également une lecture stratégique. Ces dernières années, les grands fournisseurs de cloud ont investi des milliards dans le développement de leurs propres puces IA (TPU chez Google, Trainium et Inferentia chez AWS, accélérateurs maison chez Microsoft, etc.) afin de réduire leur dépendance vis-à-vis de tiers et d’optimiser leurs coûts.
Cependant, cette annonce reflète une tendance claire : cohabitation et compétition en même temps. AWS maintient sa priorité sur Trainium en tant qu’alternative interne, mais reconnaît également la valeur de l’attacher à une infrastructure d’interconnexion, de logiciels et d’écosystèmes que NVIDIA a massivement déployés sur le marché.
Pour NVIDIA, cette stratégie garantit que, même lorsque ses clients déploient des ASICs sur-mesure, la société reste au cœur de l’architecture : dans le réseau, en rack, dans la couche logicielle, et dans de nombreux cas, avec ses GPUs cohabitant avec ces puces.
Ce qu’il faut attendre : IA à la chaîne, avec des cycles plus rapides
La combinaison de Trainium4 et NVLink Fusion vise un modèle de « usine d’IA », où le matériel devient plus interchangeable et les cycles d’innovation se raccourcissent. Plutôt que de repartir de zéro pour chaque nouvelle génération de rack, les hyperscalers pourront s’appuyer sur une base stable, en changeant simplement d’accélérateurs ou en ajustant le design, sans repenser toute l’infrastructure.
Dans une industrie où chaque année voit émerger des modèles plus grands, des agents plus complexes et de nouveaux usages (de copilotes d’entreprise à des simulations massives et des jumeaux numériques), la promesse d’un déploiement plus rapide, à moindre risque, et performante, est difficile à ignorer.
Dans ce contexte, l’alliance entre AWS et NVIDIA n’est pas seulement un accord technique : c’est une déclaration d’intentions sur la façon dont la prochaine génération de centres de données IA sera construite.
Questions fréquentes sur AWS, Trainium4 et NVIDIA NVLink Fusion
Qu’est-ce que NVIDIA NVLink Fusion exactement ?
NVLink Fusion est une plateforme d’infrastructure IA à l’échelle de rack, combinant l’interconnexion NVLink de sixième génération, les châssis de switches Vera-Rubin, et l’architecture de racks MGX. Elle permet de relier jusqu’à 72 accélérateurs dans un seul domaine haute vitesse, offrant plusieurs dizaines de térawoies par seconde de bande passante totale entre chips.
Comment Trainium4 bénéficiera-t-il de NVLink Fusion ?
Trainium4 est conçu pour s’intégrer dès la conception avec NVLink 6 et l’architecture MGX. Cela permettra à AWS de construire des racks où les puces Trainium4 pourront communiquer entre elles et, éventuellement, avec des GPU NVIDIA, via un réseau à très faible latence et haute bande passante, idéal pour l’entraînement et l’exécution de grands modèles IA.
Quels avantages offre NVLink Fusion par rapport à d’autres réseaux haute vitesse ?
Contrairement à d’autres solutions d’interconnexion, NVLink Fusion repose sur une technologie largement éprouvée dans les superordinateurs et clusters IA. Il offre un accès mémoire direct entre accélérateurs, des opérations atomiques, et des réductions en réseau, le tout intégré avec le stack logiciel de NVIDIA, simplifiant la programmation et l’optimisation à grande échelle.
Ce partenariat remet-il en question l’indépendance d’AWS dans le développement de ses propres chips IA ?
Pas nécessairement. AWS continue de développer sa famille de puces Trainium et Inferentia, ainsi que ses CPU Graviton. Ce qui change, c’est qu’au lieu de concevoir toute l’infrastructure de zéro, AWS s’appuie sur la plateforme NVLink Fusion pour réduire les délais, les risques et les coûts. C’est un exemple de « coopétition » : AWS concurrence dans le silicium, mais coopère dans l’interconnexion et l’architecture rack avec NVIDIA.
Source : developer.nvidia