OpenAI joue sa carte dans le matériel : 6 GW avec AMD et une stratégie « multi-fournisseurs » qui inclut également NVIDIA et le reste de la chaîne de puces

OpenAI joue sa carte dans le matériel : 6 GW avec AMD et une stratégie « multi-fournisseurs » qui inclut également NVIDIA et le reste de la chaîne de puces

OpenAI ne se limite plus aux modèles et applications ; commence également à se positionner en tant qu’infrastructure. La société a annoncé un accord pluriannuel avec AMD pour déployer jusqu’à 6 gigawatts (GW) de capacité en GPU dédiés à l’IA — avec une première phase de 1 GW utilisant le Instinct™ MI450, prévue pour la deuxième moitié de 2026 — ainsi qu’un warrant pour jusqu’à 160 millions d’actions AMD, lié au respect de jalons techniques, commerciaux et d’objectifs de prix de l’action. Au-delà de ce titre, la stratégie est claire : OpenAI s’oriente vers une diversification avec plusieurs fournisseurs de calcul, AMD comprise, NVIDIA étant bien sûr aussi de la partie, ainsi que les autres acteurs essentiels pour faire évoluer l’IA (fonderies, packaging, mémoire HBM, énergie et gestion thermique). L’objectif : assurer une capacité de calcul solide pour plusieurs exercices et réduire le risque dans une chaîne d’approvisionnement sous tension.


Ce qui a été convenu explicitement avec AMD (et ce qui ne l’est pas)

Le partenariat AMD–OpenAI confirme :

  • Ampleur : jusqu’à 6 GW de capacité à travers plusieurs générations de AMD Instinct.
  • Premier jalon : 1 GW avec le MI450 au second semestre 2026, avec des déploiements en mode « à l’échelle rack ».
  • Partenariat technique : co-ingénierie hardware/software pour optimiser les feuilles de route produits.
  • Incitations : warrant jusqu’à 160 millions d’actions pour OpenAI, échelonné selon la réalisation de déploiements et de objectifs (techniques, commerciaux et de cotations).

Ce qui n’est pas indiqué (et mérite clarification) : il ne s’agit pas d’un achat direct immédiat de « 10 % » d’AMD. Un warrant représente un droit conditionnel d’acheter des actions dans le futur, sous réserve de conditions. La dilution potentielle pour AMD n’interviendrait que si les GW sont délivrés et si les seuils fixés sont atteints.


Dans le contexte : une stratégie « multi-fournisseurs » pour OpenAI par conception

Une lecture claire pour un média tech : OpenAI adopte une stratégie multi-fournisseurs pour le calcul. Historiquement, elle a principalement déployé son infrastructure sur NVIDIA, leader en parts de marché et bénéficiant d’un écosystème CUDA mature et inégalé. Par ailleurs, elle étend cette base avec AMD en tant que partenaire stratégique pour plusieurs années. La communication envoyée au marché indique :

  1. Vraie diversification. Elle réduit le risque de dépendance à un seul vendeur, augmente la négociation et la résilience face à HBM/packaging ou logistique.
  2. Co-ingénierie SW/HW. Le partenariat avec AMD inclut une optimisation du stackROCm, kernels, bibliothèques, frameworks— pour que Instinct performe dans des charges réelles (entraînement et inférence).
  3. Coût total de possession (TCO) compétitif. Si AMD maintient performance et efficience thermique/énergétique à l’échelle rack, elle ouvre la voie face au statu quo en matière de coût par epoch ou de latence par token.

Rien dans ces stratégies ne « remplace » NVIDIA ; cela renforce la compétitivité. Concrètement, OpenAI construit un landing zone multi-fournisseursNVIDIA et AMD — ainsi que, dans une moindre mesure, d’autres accélérateurs — cohabitent et où la charge est optimisée selon le prix, le performance par watt, et la disponibilité.


Pourquoi l’accord avec AMD dépasse le simple « commande massive »

La différence majeure par rapport à un contrat d’achat classique réside dans l’alignement sur des jalons :

  • Le warrant n’est attribuévesting ») que si OpenAI déploie (de 1 GW à 6 GW) et si AMD atteint des objectifs techniques, commerciaux et en matière de prix.
  • Pour AMD, cela offre une visibilité sur la demande pour plusieurs exercices, sans dilution immédiate. Pour OpenAI, cela assure une priorité et une échelle avec un incitatif pour que le fournisseur tienne ses engagements.

Sur le plan technologique, AMD évoque des solutions à l’échelle rack : en 2026, ce ne sera pas seulement une course aux FLOPS, mais aussi à la fréquence thermique liquide, à l’interconnexion à terabits/s, à la densité par rack, à un HBM stable, et à une opérabilité (capteurs, telemetry, serviceabilité). C’est dans cette dimension que se gagnent — ou se perdent — la rentabilité et la profitabilité à l’échelle IA.


NVIDIA demeure crucial (et OpenAI ne relâche pas la manette)

L’autre réalité : NVIDIA reste un acteur clé pour OpenAI. La société de Jensen Huang continue d’être essentielle ; sa combinaison de silicium et de logiciel (CUDA, cuDNN, NCCL, Triton, TensorRT, écosystème PyTorch) accélère le temps de mise sur le marché de chaque génération. Rien dans l’accord AMD–OpenAI ne laisse penser le contraire. La stratégie n’est pas de substitution, mais d’ajout. AMD et NVIDIA forment deux piliers complémentaires du cathédrale du calcul.

À moyen terme, cette double voie permet à OpenAI de gérer la charge en fonction de la pénurie, du prix, ou d’ajustements techniques. Elle pousse le marché à compétir dans autre chose que les FLOPS de brochure : performance soutenue, logiciel avancé et service terrain.


Chaîne d’approvisionnement : HBM, packaging, énergie et thermique (l’« autre » calcul)

Regarder au-delà du seul composant intégré, c’est identifier trois goulets d’étranglement que chaque acteur infrastructure reconnaît :

  • HBM et OSAT. La mémoire à haute bande passante et le packaging avancé connaissent des mois de tension ; des accords pluriannuels comme celui-ci réorganisent les priorités mondiales.
  • Énergie fiable et refroidissement. 6 GW répartis sur plusieurs années impliquent des centres de données avec plusieurs dizaines de MW par campus, utilisant éventuellement une refroidissement liquide D2C ou immersif, voire des microcanaux pour maîtriser la thermique. Le coût du kWh et les permis deviennent des variables de produit.
  • Réseau et stockage. Backplanes, CX/MX à TB/s, fabrics à faible latence, flux d’I/O pour éviter de frustrer les pipelines d’entraînement ou de service.

OpenAI n’a pas encore détaillé les localisations ni le mix par génération au-delà de 1 GW avec le MI450, mais toute feuille de route réaliste intègre énergie, thermique, réseau et chaîne HBM/OSAT tout autant que les FLOPS.


L’évolution potentielle du stack logiciel

Le succès d’AMD en IA ne repose pas uniquement sur le die. Le stack (ROCm, compilateurs, kernels optimisés et compatibilité en frameworks) devra démontrer sa performance en conditions réelles — prélèvements, entraînement intensif, Mixture-of-Experts, inference serving — avec une latence et un coût convaincants. La co-ingénierie avec un acteur aussi exigeant qu’OpenAI accélère cette voie ; si l’outillage arrive avec qualité, le TCO de tout le rack — pas seulement du chip — commence à s’aligner.


À surveiller en 2026 (et avant)

  • MI450 : benchmarks en entraînement et inférence, efficacité par watt, stabilité sous charge, logiciel mature.
  • Jalons de déploiement : 1 GW au second semestre 2026, progression vers 6 GW ; indications de capacité dans les fonderies et HBM.
  • Stack ROCm : parité fonctionnelle avec CUDA dans frameworks clés, kernels critiques optimisés (attention, MoE, flash-attn, serving).
  • Opérations : densité par rack, solutions liquides de référence, télémétrie et serviceabilité.
  • NVIDIA : réaction produit (refresh de générations, designs rack), disponibilité et propositions de TCO dans des pods complets.

Conclusion : OpenAI construit un portfolio de calcul à plusieurs années

Ce que fait OpenAI ne se limite pas à une simple commande ; c’est la conception d’un portefeuille de calcul pour la décennie. AMD s’y inscrit comme partenaire clé avec 6 GW sur plusieurs années ; NVIDIA continue de dominer une grande partie du stack et de l’écosystème ; l’ensemble industry — fondations, HBM, packaging, refroidissement, énergie — s’adapte à cette échelle. Dans un marché où le modèle suivant consomme toujours plus et où la fenêtre pour l’entraînement est toujours plus courte, ceux qui construisent un calcul diversifié et opérable ont avantage.

Pour la communauté tech, la tendance de fond est optimiste : plus de concurrence dans le silicium, plus de logiciel optimisé en pulvérisation, et une innovation continue dans ce qui compte aujourd’hui : la performance soutenue à l’échelle rack avec un TCO viable. OpenAI joue déjà sur plusieurs terrains, et cette dynamique — pour le meilleur — poussera tout le secteur à aller plus loin.

le dernier