Oracle et AMD ont annoncé une expansion « profonde » de leur collaboration multigénérationnelle visant à intensifier les capacités d’intelligence artificielle (IA) dans le cloud. Oracle Cloud Infrastructure (OCI) sera partenaire de lancement du premier supercluster public dédié à l’IA, basé sur AMD Instinct™ MI450 Series, avec un déploiement initial de 50 000 GPU prévu pour le troisième trimestre 2026 et une croissance anticipée pour 2027 et au-delà. Cette démarche intervient à un moment où la demande en capacité IA à grande échelle s’accélère, et où les modèles de nouvelle génération dépassent les limites des clusters actuels.
Ce projet repose sur la plateforme rack-scale “Helios”, présentée par AMD lors du OCP Global Summit, et sur une stack vertical de nouvelle génération combinant GPU Instinct MI450, CPU AMD EPYC™ “Venice” et réseau avancé AMD Pensando™ “Vulcano”. Tout cela est intégré avec des usines ouvertes —UALink/UALoE pour scale-up entre GPUs, et Ethernet aligné UEC pour scale-out—, ainsi qu’avec des solutions de refroidissement liquide et une densité de 72 GPU par rack, pour maximiser performances et efficacité énergétique.
« Nos clients développent certaines des applications IA les plus ambitieuses au monde, ce qui nécessite une infrastructure robuste, évolutive et haute performance », affirme Mahesh Thiagarajan, vice-président exécutif d’Oracle Cloud Infrastructure. « En combinant les dernières innovations d’AMD avec la plateforme sécurisée et flexible de OCI — et le réseau avancé avec Oracle Acceleron — ils peuvent repousser les limites en toute confiance. Après une décennie de collaboration, nous continuons à offrir la meilleure valeur-prix-performance dans un cloud ouvert, sécurisé et évolutif ».
« AMD et Oracle pilotent l’innovation en IA dans le cloud », indique Forrest Norrod, vice-président exécutif et directeur général du Data Center Solutions Business Group chez AMD. « Avec AMD Instinct, EPYC et Pensando, les clients d’Oracle bénéficient de nouvelles capacités pour entraîner, ajuster et déployer la prochaine génération d’IA dans des centres de données massifs ».
Ce qui a été annoncé (et quand)
- Supercluster public IA sur OCI avec AMD Instinct MI450 : 50 000 GPU dès Q3 2026, avec extension en 2027+.
- Architecture “Helios” (rack-scale ouvert) avec 72 GPU par rack, refroidissement liquide, UALoE pour scale-up et Ethernet aligné UEC pour scale-out.
- CPU AMD EPYC “Venice” comme nœud principal pour l’orchestration et la gestion des données, avec confidential computing end-to-end.
- Réseau convergent accéléré par DPU AMD Pensando “Vulcano” (jusqu’à 3 AI-NIC de 800 Gbps par GPU) avec connectivité sans perte, programmable et support avancé RoCE/UEC.
- HBM4 dans MI450 : jusqu’à 432 GB par GPU et 20 TB/s de bande passante, permettant de former et inférer des modèles 50 % plus grands que la génération précédente, entièrement en mémoire.
- Logiciel ouvert AMD ROCm™ et partitionnement/virtualisation avancés : SR-IOV, multi-locataires et partage sécurisé des GPU et pods.
- Disponibilité générale sur OCI de Compute avec AMD Instinct MI355X dans le supercluster zettascale (échelle jusqu’à 131 072 GPU), comme solution à valeur ajoutée et compatible open-source.
Pourquoi c’est important : les modèles dépassent les clusters… et l’infrastructure s’adapte
Cette annonce traduit une réalité que vivent les équipes IA au pied des clusters : les modèles limite et leurs variantes (multimodaux, mixtures of experts, longueurs de contexte) dépassent les architectures modernes en mémoire, bande passante et interconnexions. La transition vers HBM4 — avec jusqu’à 432 GB par GPU et 20 TB/s — couplée aux usines ouvertes (inter-rack UALink/UALoE et inter-rack UEC) vise à répondre à trois freins classiques :
- Capacité mémoire et débit : moins de partitions forcées, moins de checkpoints, pipelines simplifiés.
- Échelle efficace : réduction des sauts (hops) et de la latence entre GPUs, optimisation des collectives, réseaux observables (telemetrie, congestion control).
- Operation durable : refroidissement liquide, déconnexion rapide, densité raisonnable par rack, facilité de maintenance et efficacité énergétique.
Le positionnement combiné d’OCI (couche de contrôle, sécurité, acceleron networking) et d’AMD (GPU, CPU, DPU, rack-scale ouvert) vise à exploiter ce triangle performance-échelle-efficience avec une cloud publique qui, dans cette vague, ne se limite pas à louer du calcul : elle fournit des clusters prêts pour la charge extrême avec contrôles d’isolement et confiance pour des workloads sensibles.
Sous le capot : “Helios” + MI450 + Venice + Vulcano
GPU AMD Instinct MI450 (HBM4)
- Jusqu’à 432 GB HBM4 par GPU, 20 TB/s en bande passante.
- Modèles 50 % plus grands que dans la génération précédente, en mémoire (moins de partition, moins de surcharge de synchronisation).
- Formes (shapes) conçues pour LLM avancés, GenAI et HPC en environnements ouverts (ROCm).
Rack Helios (ORW) avec scale-up/scale-out ouverts
- 72 GPU par rack, refroidis par liquide, avec échanges rapides, double largeur (service et flux thermique).
- UALoE comme protocole dédié (transport UALink) : cohérence matérielle et mémoire partagée entre GPU du même rack, sans passer par CPU.
- Ethernet UEC aligné pour scale-out : haute performance, multipath et programmabilité entre pods et racks.
CPU AMD EPYC “Venice” (nœud principal)
- Orchestration des tâches à grande échelle, ingestion et prétraitement rapides des données.
- Confidential computing et sécurité intégrée pour une gestion end-to-end des flux sensibles.
Réseau convergent accéléré par DPU AMD Pensando “Vulcano”
- Jusqu’à 3 AI-NIC de 800 Gbps par GPU : connectivité sans pertes, programmable, avec support avancé RoCE/UEC.
- Ingestion en ligne, isolation et politiques de sécurité pilotées directement par la DPU.
Logiciel et multi-tenancy
- ROCm™ : stack open (frameworks, librairies, compilateurs, runtimes), conçu pour la portabilité et la liberté de fournisseur.
- Partitionnement fin de GPU et pods, SR-IOV, multi-tenants renforcés : partage sécurisé et ajustement précis des GPU selon les besoins de charge.
OCI Supercluster : de MI300X/MI355X à MI450
Ce lancement s’appuie sur une trajectoire commencée en 2024 avec Instinct MI300X sur OCI, et poursuivie avec la disponibilité générale de OCI Compute avec MI355X. Alors que le supercluster zettascale peut atteindre 131 072 GPU, le MI450 constitue l’étape suivante : intégration de HBM4, largeur de bande accrue, et un maillage pensé pour des modèles à échelle trillon ou avec de longues chaînes contextuelles, en réduisant la pénalité liée au sharding.
Pour les clients, cela signifie un assortiment combinant valeur et échelle : MI355X pour une meilleure valeur-prix et compatibilité open-source, et MI450 pour repousser les limites à l’avant-garde, notamment en mémoire et bande passante.
Ce que ce stack solutionne (et pour qui)
Entraînement de frontière (pre-training massif, MoE, longues chaînes contextuelles) :
- Moins de partitionnement, plus de tokens/sec exploitables, collectives plus stables, visibilité sur le tissu.
Fine tuning et inférence à grande échelle (RAG, agents, copilotes) :
- Latence moindre en scale-out, mémoire suffisante pour orchestrer des tâches plus complexes, sans nécessiter de déchargements constants.
HPC avec flux de travail mixtes (simulation + ML) :
- Nœud principal “Venice” accélère l’ingestion et l’orchestration ; la DPU décharge la CPU/gpu des tâches réseau et sécurité.
Secteurs réglementés (santé, finance, secteur public) :
- Confidential computing et contrôles multi-tenant ; sécurité intégrée et traçabilité pour audit et conformité.
Lecture du marché : standards ouverts et verticalisation intelligente
La valeur stratégique ne réside pas uniquement dans le nombre (50.000 GPU) mais aussi dans le comment. Oracle et AMD privilégient les standards ouverts (ORW/Helios, UALink/UALoE, UEC, ROCm) avec une verticalisation où chaque couche contribue à l’efficacité :
- Rack ouvert (service, thermique, puissance) → densité durable.
- Usine intra-rack (cohérence, mémoire partagée) → moins de latence et plus de débit sans CPU.
- Usine inter-rack (Ethernet UEC) → échelle maîtrisée et programmable.
- Nœud principal avec confidentiality → sécurité et usage accru.
- DPU → ingestion et posture de sécurité alignées en temps réel.
- ROCm → portabilité réelle et moindre dépendance vis-à-vis des fournisseurs.
Dans l’ensemble, le supercluster OCI ambitionne d’être plus que “GPU dans le cloud” : il veut devenir l’architecture de référence pour une IA à grande échelle, ouverte et opérable.
Disponibilité et prudences
Oracle et AMD placent le début du déploiement en Q3 2026 (avec extension en 2027+). Comme dans toute feuille de route infra, quelques disclaimers : les délais, spécifications et prix peuvent évoluer ; certains détails (par ex. pourcentages de partition, SKUs définitifs, couches logiciel) seront précisés au fur et à mesure des pilotes et validations. La MI355X disponible dès aujourd’hui dans le supercluster zettascale d’OCI, répond déjà aux besoins de charges massives.
Conclusion : un « saut de géant » vers une IA à échelle ouverte
L’expansion du partenariat Oracle-AMD se concrétise dans un supercluster public qui, sur le papier, repousse les frontières de l’IA depuis le cloud : 50.000 MI450 en point de départ, HBM4 sur chaque GPU, tissus UALink/UEC, EPYC “Venice” et Pensando “Vulcano” sous l’égide de la plateforme Helios. La stratégie est double : puissance et ouverture. Pour les équipes confrontées à la « fracture » entre ambitions de modèles et capacités de clusters, c’est un signal clair : l’infrastructure évolue pour leur venir en aide.
Reste à voir comment sera concrétisé ce grand pas : latences réelles, collective “dans des situations difficiles”, coûts totaux, et objectifs de SLO. Mais la direction est claire : plus de mémoire, plus de maillage, plus d’efficience… et moins de friction pour faire passer l’IA du prototype à la production à grande échelle.