OpenAI « bloque » presque la moitié de la DRAM mondiale pour son projet Stargate : un accord avec Samsung et SK Hynix qui bouleverse toute la chaîne d’approvisionnement

Ce qui, jusqu’à récemment, semblait relever de la science-fiction industrielle commence à prendre forme avec des chiffres impressionnants : OpenAI aurait conclu un accord avec Samsung et SK Hynix pour réserver environ 40 % de la capacité mondiale de DRAM pour les années à venir, dans le but d’alimenter son ambitieux projet Stargate AI. Selon les informations publiées, la société prévoit consommer environ 900 000 wafers de DRAM par mois jusqu’en 2029; un chiffre qui, comparé à la capacité mondiale prévue à la fin de 2025 — autour de 2,25 millions de wafers par mois — révèle l’ampleur de la crise : pratiquement la moitié de la production mondiale serait engagée pour un seul client et un seul programme de centres de données.

Si cette tendance se confirme, cela redistribue les priorités tout au long de la chaîne de valeur des semi-conducteurs : des fabricants de mémoire aux fournisseurs d’équipements (lithographie, dépôt, gravure), en passant par les concepteurs de GPU, les hyper-scalers concurrents d’OpenAI, jusqu’au marché de consommation (PC, consoles, mobiles). La DRAM — jusqu’ici abondante et cyclique — pourrait devenir le goulot d’étranglement.

Des chiffres impressionnants : des wafers aux puces, puis 120 milliards de dollars

Converti en puces, le nombre de 900 000 wafers par mois peut, avec des hypothèses classiques de densité et de performance, équivaloir à entre 1,5 et 1,7 milliard de circuits LPDDR5 ou DDR5. JPMorgan estime que ce niveau de demande représenterait environ 130 000 milliards de bits de mémoire et générerait jusqu’à 120 milliards de dollars de revenus, selon la composition entre DRAM standard et HBM (mémoire empilée à haut débit, essentielle pour l’IA).

L’impact sur le capex est également considérable : 160 milliards de dollars pour de nouvelles usines et équipements afin de soutenir cette expansion, avec ASML, Applied Materials, Lam Research, ou Tokyo Electron parmi les grands bénéficiaires grâce à la vente de scanners EUV/DUV et d’outils de procédé. La question n’est pas de savoir si les fournisseurs de capitaux investiront dans ce marché ; c’est de connaître leur capacité à suivre la vitesse exigée par le client.

Samsung et SK Hynix dans le coup ; Micron, pour l’instant, en retrait

Les deux fabricants sud-coréens sont cités comme signataires de l’accord-cadre. En revanche, Micron, troisième acteur mondial en DRAM et唯一 américain du trio, semble exclu selon les informations disponibles. Cette exclusion est non négligeable : dans un contexte de tensions politiques et de relocalisation de chaînes critiques, que le plus grand consommateur mondial d’IA s’engage aussi massivement avec des fournisseurs étrangers imposera des discussions au plus haut niveau politique et économique à Washington.

L’alliance avec Samsung dépasse également le cadre des puces : il est mentionné la participation de Samsung SDS à la conception de centres de données, celle de Samsung C&T et Samsung Heavy Industries dans les infrastructures (y compris flottantes) et dans la distribution de ChatGPT Enterprise en Corée. Toutefois, le cœur reste le même : garantir que OpenAI ne manquera pas de mémoire critique pour entraîner et déployer des modèles de plus en plus ambitieux.

Pourquoi la DRAM devient-elle le centre de toutes les attentions ?

Jusqu’ici, le hardware pour l’IA tournait essentiellement autour des GPU : plus de FLOPS, plus de NVLink, plus de cohérence. Le goulet d’étranglement suivant — et déjà visible — c’est la mémoire : son bande passante et sa capacité qui alimentent ces GPU et permettent de séquencer des inférences avec des contextes de centaines de milliers de tokens ou de traiter de très gros lots en entraînement.

La HBM (mémoire empilée en 3D sur interposers) est devenue le standard pour les GPU d’IA ; mais la DRAM conventionnelleDDR5/LPDDR5 — reste la sang des serveurs, CPU et accélérateurs qui n’utilisent pas encore l’HBM, ainsi que la base des systèmes de stockage en mémoire, buffers et caches à l’échelle. Engager près de la moitié de la production mondiale de DRAM pousse toute l’industrie à recalculer et à sécuriser ses approvisionnements.

Effet domino : prix, disponibilité et planification

Si la capacité industrielle de DRAM ne suit pas le rythme exigé par Stargate, le marché sera confronté à un scénario classique de pénurie : des prix en hausse, des délais d’approvisionnement plus longs et une priorisation des clients les plus puissants — à commencer par les géants du cloud et de l’IA — au détriment du grand public. Les kits de DDR5 pour PC ou la LPDDR pour mobiles passeront d’un bien de consommation courante à une variable stratégique représentant une part significative dans la Bill of Materials (BoM). Quant à la DDR6 pour la prochaine génération, elle ne sera plus simplement une norme, mais une question de capacité manufacturière et de prix abordables.

Les entreprises dépendantes des services cloud seront aussi affectées indirectement : les hyper-scalers répercuteront les coûts et les limitations sur leurs catalogues, et la livraison de matériel pour l’expansion des data centers pourrait ralentir si les modules de mémoire rencontrent des tensions.

L’industrie peut-elle répondre à temps ?

L’extension de la capacité en DRAM ne se fait pas à la légère : la mise en place ou l’expansion d’une usine requiert des années, des permits, des financements, des garanties de demande à long terme et un écosystème de fournisseurs — depuis les chimistes jusqu’aux réseaux — qui doivent aussi s’adapter. ASML (lithographie EUV/DUV), Applied Materials, Lam Research, Tokyo Electron (équipements de dépôt, gravure, métrologie) et bien d’autres doivent tourner à plein régime. C’est réalisable avec des incitations et des contrats à long terme, mais le risque de retard est réel.

De plus, le mix DRAM vs HBM influence la réponse : la HBM nécessite empilement, interposers et un emballage avancé (CoWoS, FO-PLP), qui est aujourd’hui une restriction globale confiée à quelques fournisseurs. Si OpenAI et ses partenaires accélèrent l’adoption de la HBM en volumes importants, cela pourrait accroître encore davantage ce goulet d’étranglement.

Quels enjeux pour OpenAI (et quels risques) ?

Assurer un volume de mémoire considérable donne à OpenAI une avantage stratégique : la priorisation dans l’échelle et la prévisibilité des coûts dans un domaine critique. Mais cela comporte aussi des risques : des engagements multianuels de plusieurs milliards, une dépendance aux roadmaps et aux rampes de production de tiers, et la possibilité d’une réaction réglementaire si la pénurie impacte des secteurs clés. Par ailleurs, réserver la mémoire ne garantit pas de la recevoir : l’industrie devra respecter des calendriers exigeants durant cette période exceptionnelle.

Un accord « à trois niveaux » : mémoire, infrastructures et écosystème

L’accord avec Samsung couvrirait aussi le design et la construction de centres de données, voire d’infrastructures flottantes (une piste potentielle en Corée pour héberger une puissance de calcul avec refroidissement et énergie différents), et la distribution de ChatGPT Enterprise dans le pays. Cependant, le véritable cœur reste inchangé : garantir à OpenAI une mémoire DRAM — et, selon la composition finale, de la HBM — en volumes historiques.

Les autres acteurs du marché : GPU, serveurs, cloud, consommation

  • Fabricants de GPU: NVIDIA — et ses concurrents — devront garantir que la capacité mémoire accompagne la puissance de calcul lors des prochains crolls d’architecture.
  • Serveurs et stockage: les conceptions de cartes, connecteurs et backplanes seront probablement plus modulaires pour amortir les fluctuations de prix et de disponibilité des DRAM.
  • Cloud publics: les hyper-scalers sans accès prioritaire à la DRAM réservée sécuriseront des contrats avec d’autres fabricants et ajusteront leurs catalogues en conséquence.
  • Consommation: ordinateurs et mobiles ressentiront l’impact avec un délai, mais une intensité accrue si leurs plans d’expansion se ralentissent. Il est crédible d’envisager une hausse des prix du DDR5/LPDDR5, et un lancement de la DDR6 sous tension de l’offre.

La dimension politique : chaînes critiques et “America First”

L’absence de Micron dans l’accord — selon les rapports — placera la question sur l’agenda de Washington : la DRAM est une chaîne critique, tout comme les puces logiques et la lithographie. Si Samsung et SK Hynix concentrent plus de 40 % de la production mondiale pour un programme américain, la pression pour diversifier et rapatrier une partie de l’approvisionnement par le biais d’incitations ou d’engagements parallèles sera forte.

Une paradoxe de l’IA : sans mémoire, impossible de bâtir le futur

La demande en mémoire pour l’IA est devenue exponentielle : il y a deux ans, cela semblait excessif ; aujourd’hui, un “accord historique” sur la DRAM dessine un scénario d’abondance conditionnée : si la capacité progresse à temps, le développement de l’IA suivra sa courbe ; sinon, nous serons confrontés à des priorités, des prix tendus et des reports.

L’industrie doit saisir cette opportunité colossal — plus de 100 milliards de dollars d’augmentation de revenus, des capex record, de nouvelles usines — et relever un défi monumental : fournir à l’échelle, sans faute, pendant des années.


Questions fréquentes

Qu’est-ce exactement Stargate AI, et pourquoi a-t-il besoin d’autant de DRAM ?
Stargate AI désigne le macroprojet de centres de données de OpenAI pour entraîner et servir des modèles d’intelligence artificielle de nouvelle génération. Ce saut nécessite des quantités extraordinaires de mémoire — à la fois DRAM standard (DDR5/LPDDR5) et, probablement, HBM — pour alimenter des GPU et des accélérateurs avec de vastes contextes et lots.

D’où provient la donnée “900 000 wafers par mois” et que cela signifie-t-il par rapport à l’offre globale ?
Les sources évoquent environ 900 000 wafers par mois jusqu’en 2029. En regard du total mondial prévu d’~2,25 millions de wafers par mois à la fin de 2025, cela représente plus de 40 % de la production mondiale de DRAM, réservée à un seul client.

Quelle incidence cela aura-t-il sur le prix et la disponibilité de la DDR5/DDR6 pour PC et mobiles ?
Si la capacité ne suit pas le rythme exigé par Stargate, un cycle de hausse des prix et de délai de livraison plus long pourrait s’imposer pour la DDR5/LPDDR5 ; le déploiement de la DDR6 pourrait également être sous tension. La conséquence exacte dépendra de la composition de la demande en DRAM/HBM, du succès de la montée en puissance en fabrication, et de la disponibilité de contrats de fourniture alternatifs.

Pourquoi Micron est-il absent et peut-il faire bouger la situation ?
D’après les informations, Micron ne figure pas dans l’accord avec OpenAI, contrairement à Samsung et SK Hynix. La politique et la sécurité nationale aux États-Unis pourraient encourager, à moyen terme, des ajustements pour diversifier l’approvisionnement. Quoi qu’il en soit, l’augmentation de capacité mettra du temps : la mise en service de nouvelles fabs et l’approvisionnement en équipements et matières premières nécessitent des années, pas des mois.

Source : news.samsung

le dernier