OpenAI dépasse les 10 GW de capacité IA avant 2029

Stargate se bloque et OpenAI redessine sa carte du « compute » : plus de cloud, plus de partenaires et moins de certitudes

OpenAI a passé un cap symbolique : la société dirigée par Sam Altman affirme avoir déjà sécurisé plus de 10 GW de capacité d’infrastructure IA aux États-Unis, soit l’objectif annoncé en janvier 2025 pour le projet Stargate, atteint avec près de trois ans d’avance sur le calendrier 2029. Le chiffre est lourd de sens : 10 GW, c’est l’équivalent énergétique d’une dizaine de réacteurs nucléaires, mobilisé pour faire tourner des modèles d’IA générative.

Sur les 90 derniers jours, OpenAI dit avoir ajouté plus de 3 GW à son empreinte. La société martèle son message : la demande pour ses modèles grandit plus vite que sa capacité à la servir, et la seule réponse passe par construire davantage. Une thèse qui justifie une fuite en avant industrielle dont le prix se compte désormais en centaines de milliards.

Stargate au-delà du plan initial : 10 GW engagés

Quand OpenAI a dévoilé Stargate en janvier 2025, le projet affichait une enveloppe pouvant atteindre 500 milliards de dollars sur quatre ans, avec pour cible 10 GW de capacité IA aux États-Unis avant 2029. Un an et demi plus tard, le périmètre a doublé d’ambition : les estimations qui circulent désormais évoquent jusqu’à 600 milliards de dépenses cumulées, et la cible des 10 GW est dépassée avant même d’avoir atteint la moitié du calendrier.

Le modèle Stargate a aussi changé de nature. Au départ, l’idée était de bâtir des sites massifs sous contrôle direct ou très étroit. Aujourd’hui, OpenAI assemble un patchwork plus opportuniste : centres de données dédiés, capacités cloud louées, accords avec des fournisseurs émergents, contrats pluriannuels avec les hyperscalers. Ce repositionnement progressif de Stargate, déjà documenté début 2026, traduit l’aveu implicite qu’une seule entreprise ne peut absorber un chantier de cette échelle.

IndicateurDonnée actuelle
Objectif initial Stargate (2025)10 GW aux États-Unis avant 2029
Capacité engagée annoncéePlus de 10 GW
Capacité ajoutée sur 90 joursPlus de 3 GW
Capacité opérationnelle (fin 2025)1,9 GW
Investissement initial annoncéJusqu’à 500 milliards de dollars
Estimation actualisée (marché)Environ 600 milliards sur quatre ans
Partenaires clésMicrosoft, Oracle, AWS, CoreWeave

De Microsoft à AWS Trainium : la galaxie de partenaires

L’accord avec AWS pour utiliser les puces Trainium occupe une place stratégique : 2 GW de capacité associée, avec une extension contractuelle prévue. Pour OpenAI, c’est une rupture symbolique. Pendant des années, Microsoft a été le fournisseur quasi exclusif de calcul. Désormais, la société multiplie les contreparts : Oracle Cloud Infrastructure pour le site d’Abilene (Texas), CoreWeave pour l’accès rapide aux GPU NVIDIA Blackwell, AWS pour Trainium, Microsoft sur les charges historiques.

Cette diversification arrive après plusieurs alertes. Le ralentissement opérationnel d’Abilene, où Oracle et OpenAI ont gelé l’extension prévue, a montré qu’un seul site, aussi grand soit-il, ne suffit pas à absorber la croissance. Côté concurrents, le mouvement est similaire : Anthropic vient de signer un accord à 100 milliards avec Amazon pour 5 GW de calcul, preuve que l’inflation de capacité est devenue le terrain principal de la compétition entre laboratoires.

OpenAI reconnaît que les structures de financement et les modes de collaboration peuvent évoluer. Le message reste constant : il faut de l’échelle, livrée à temps, avec assez de flexibilité pour absorber les changements d’architecture. Personne ne sait quel chip dominera dans trois ans, quel ratio entraînement-inférence sera optimal, ni quelle part du budget partira sur les agents autonomes. Mais manquer d’infrastructure paraît, à ce stade, plus risqué que la surdimensionner.

Capacité engagée n’est pas capacité opérationnelle

Voilà le point qu’il faut peser avant d’applaudir. Dans le langage des centres de données, la capacité existe sur plusieurs paliers : contractée, réservée, en construction, raccordée au réseau électrique, équipée en serveurs, en production effective. OpenAI ne précise pas où se situent ses 10 GW sur cette échelle. La société indiquait pourtant en début d’année qu’elle disposerait de 1,9 GW de calcul opérationnel à fin 2025. L’écart entre 1,9 et 10+ donne la mesure du chemin restant.

Sécuriser de la capacité avant les concurrents reste un pari sensé : si les goulets d’étranglement s’aggravent sur l’énergie, les transformateurs, les sous-stations ou la disponibilité des chips, ceux qui auront verrouillé leurs contrats prendront plusieurs années d’avance. Mais signer ne suffit pas. Il faudra construire, raccorder, refroidir, équiper et exploiter. Chaque étape ajoute son lot de risques de retard, comme le rappelle la mise en production récente des Blackwell chez CoreWeave, qui a mobilisé des mois d’ingénierie pour passer du contrat à la facturation.

Énergie, eau et territoire : la nouvelle frontière du calcul

L’infrastructure IA ne se résume plus à des GPU empilés dans une salle. OpenAI parle ouvertement d’une économie pilotée par le calcul, où la capacité à sécuriser un terrain, obtenir des permis, raccorder un réseau électrique, former des techniciens et négocier avec des élus locaux devient un avantage compétitif aussi décisif que l’accès aux meilleurs modèles. Le bras de fer pour les talents énergétiques s’est intensifié : Anthropic a récemment recruté chez Google des spécialistes des partenariats énergie, signe que les profils capables de monter un dossier devant une compagnie d’électricité valent désormais leur pesant d’or.

OpenAI tente de soigner aussi le volet social. Sa communication insiste sur l’emploi local, l’investissement dans les écoles, les recettes municipales, la gestion énergétique et la consommation d’eau. Le site d’Abilene, qui combine Oracle Cloud Infrastructure et systèmes NVIDIA GB200, est mis en avant comme vitrine. C’est là, selon la société, qu’a été entraîné GPT-5.5, son modèle le plus avancé.

Sur l’eau, la réponse vise à désamorcer les critiques sur l’empreinte hydrique des centres IA. Abilene utilise un refroidissement en circuit fermé, sans tours classiques. OpenAI affirme que le remplissage initial de chaque bâtiment représente l’équivalent de deux piscines olympiques, et que la consommation annuelle complète, à pleine charge, se compare à celle d’un immeuble de bureaux moyen ou de quatre logements. Les chiffres sont à prendre avec les pincettes habituelles, mais ils tranchent avec les évaluations alarmistes diffusées sur d’autres sites.

Ce que le pari à 600 milliards révèle

Stargate était parti d’une référence de 500 milliards. Le marché parle aujourd’hui de 600 milliards possibles, sans que la société ne précise comment ces coûts seront ventilés entre OpenAI, ses partenaires cloud, les opérateurs de centres et les financements externes. Cette opacité commence à inquiéter. Sur les marchés du crédit, des analystes ont déjà tiré la sonnette d’alarme sur l’exposition de certains acteurs : voir l’épisode où les CDS d’Oracle ont réagi au méga contrat avec OpenAI.

Au fond, l’IA bascule dans une logique d’industrie capitalistique. Les laboratoires ne se battent plus seulement pour les chercheurs ou les jeux de données. Ils rivalisent pour des gigawatts, des chips, des terrains, du refroidissement, de la dette, des contrats cloud à long terme. L’IA générative est née comme logiciel, mais sa prochaine étape ressemble plus à l’énergie ou aux télécoms qu’au monde feutré des entreprises internet de la décennie 2010.

Pour OpenAI, dépasser les 10 GW avant 2029 sert à envoyer un signal aux clients, partenaires et investisseurs : la société peut suivre le rythme, ne dépend plus d’un seul fournisseur, et garde de la marge pour des modèles plus exigeants. Pour les concurrents, le message est tout aussi clair : la course à l’IA se gagne désormais aussi dans les sous-stations électriques et les contrats d’engagement de capacité signés des années à l’avance. Reste à transformer ces gigawatts engagés en calcul vraiment utilisable. Si Stargate y parvient dans les délais, le projet deviendra l’un des plus grands réseaux d’infrastructure IA au monde. Sinon, l’écart entre les annonces et la production deviendra le vrai goulet d’étranglement de la décennie.

Questions fréquentes

Que représente l’annonce des 10 GW d’OpenAI ?
OpenAI affirme avoir sécurisé plus de 10 GW de capacité d’infrastructure IA aux États-Unis, soit l’objectif initial du projet Stargate atteint avec presque trois ans d’avance sur le calendrier 2029.

Ces 10 GW sont-ils déjà en production ?
Non. La société indiquait disposer de 1,9 GW opérationnels fin 2025. La majorité des 10 GW correspond à de la capacité contractée ou en cours de construction, qui sera mise en service par phases.

Quel rôle jouent Microsoft, Oracle et AWS dans Stargate ?
Microsoft reste le partenaire historique. Oracle opère le site d’Abilene avec des systèmes NVIDIA GB200. AWS apporte 2 GW liés à ses puces Trainium. CoreWeave fournit l’accès rapide à des GPU Blackwell. OpenAI assemble plusieurs fournisseurs pour réduire sa dépendance.

Combien coûte Stargate au total ?
L’enveloppe initiale annoncée en janvier 2025 atteignait 500 milliards de dollars sur quatre ans. Les estimations actuelles du marché évoquent jusqu’à 600 milliards, mais OpenAI ne ventile pas la répartition entre fonds propres, partenaires cloud et financements externes.

Pourquoi l’IA consomme-t-elle autant d’énergie ?
Entraîner et exploiter des modèles avancés mobilise des dizaines de milliers de GPU, des mémoires HBM, des réseaux à haute densité et un refroidissement permanent. Avec la croissance des usages chez les particuliers, les entreprises et les agents autonomes, le besoin en mégawatts grimpe plus vite que les capacités du réseau électrique américain.

Source : OpenAI

le dernier