Stargate se bloque et OpenAI redessine sa carte du « compute » : plus de cloud, plus de partenaires et moins de certitudes

Stargate se bloque et OpenAI redessine sa carte du « compute » : plus de cloud, plus de partenaires et moins de certitudes

OpenAI traverse une paradoxe propre à la course à l’intelligence artificielle : plus sa demande augmente, plus elle dépend d’une infrastructure qu’elle ne contrôle pas entièrement. La société qui a popularisé ChatGPT avait promis — en collaboration avec Oracle et SoftBank — un saut historique dans la capacité des centres de données sous l’égide de Stargate. Cependant, le marché du « compute » est devenu une véritable guerre pour la puissance électrique, le terrain industriel et les puces, qui n’attendent personne.

La promesse était ambitieuse : Stargate a été lancé comme une initiative visant à investir jusqu’à 500 milliards de dollars en quatre ans, pour construire un réseau d’infrastructures capable d’apporter 10 GW de capacité pour l’IA aux États-Unis, avec une annonce publique prévue pour janvier 2025.

Un mégaprojet, plusieurs réalités

Dans les discours officiels, OpenAI présente Stargate comme une expansion accélérée : en septembre 2025, elle annonçait cinq nouveaux emplacements de centres de données aux États-Unis, visant presque 7 GW pour respecter le calendrier des 10 GW.

Cependant, selon les sources du secteur, la situation serait différente : The Information a rapporté que le projet, conçu comme une coentreprise avec une gouvernance et une structure propre, aurait subi des blocages internes et des frictions concernant la gouvernance et les responsabilités financières, poussant OpenAI à explorer d’autres options parallèlement.

Cette tension — entre l’annonce publique et la complexité réelle de la mise en œuvre d’infrastructures de cette envergure — explique pourquoi Stargate pourrait ressembler davantage à un “cadre” regroupant accords bilatéraux, partenaires locaux, fournisseurs d’énergie et entreprises de construction spécialisées, plutôt qu’à une œuvre linéaire.

La solution : « contrôle sans propriété » et un cloud plus diversifié

Les perspectives pour 2026 sont claires : OpenAI élargit ses fournisseurs pour ne pas dépendre d’un seul. Ces derniers mois, elle a renforcé sa présence sur AWS avec un accord pluriannuel, tout en maintenant des alliances avec Oracle et en intégrant des capacités tierces comme Google Cloud.

Ce virage a des implications directes pour ses clients et partenaires : l’IA ne repose plus uniquement sur un “giga-centre de données”, mais sur un réseau d’infrastructures distribuées, où chaque fournisseur apporte une expertise différente (accès aux puces, localisation, capacité réseau, énergie et rapidité de déploiement).

Déjà en 2025, Reuters avait rapporté une démarche inhabituelle : OpenAI avait intégré Google Cloud comme fournisseur dans un contexte de demande croissante, après avoir cessé d’utiliser exclusivement Azure comme infrastructure privilégiée.

Le goulet d’étranglement : électricité, terrain et GPU

Derrière le concept de “plus de cloud” se cache une réalité physique : la course à l’IA est aussi une compétition pour l’énergie et le hardware. Par exemple, au Texas, SB Energy (liée à SoftBank) a envisagé une installation de 1,2 GW liée à Stargate, rappelant que ces chiffres se mesurent en capacité réseau, et non simplement en racks.

Pendant ce temps, les hyper-scalers poursuivent leurs investissements : le débat s’est déplacé vers combien le secteur peut dépenser en IA en une seule année. Selon un rapport cité par Reuters, l’investissement conjoint des grandes entreprises technologiques dans l’infrastructure IA pour 2026 pourrait atteindre environ 650 milliards de dollars.

Pas seulement NVIDIA : OpenAI explore un “plan B” (et un plan C) pour les puces

La pression ne concerne pas uniquement les centres de données, mais aussi le silicium. OpenAI a commencé à diversifier ses fournisseurs de puces, surtout pour l’inférence, en explorant d’autres options auprès de fabricants comme AMD, Cerebras et Groq.

En janvier 2026, OpenAI a annoncé un partenariat avec Cerebras pour déployer 750 MW dédiés à la calculabilité à faible latence, en lancement progressif dès 2026.

Par ailleurs, Reuters a rapporté début février 2026 qu’OpenAI cherchait des alternatives à certains chips récents de NVIDIA, afin de diversifier ses sources d’approvisionnement.

Cette stratégie reflète une démarche industrielle : lorsque la contrainte est globale, garantir l’approvisionnement nécessite de ne pas dépendre d’une seule voie technologique. Elle permet aussi de réduire les risques en cas de retard ou de priorisation par un fournisseur, évitant ainsi un arrêt total des opérations.

Le coût : le « compute » avale l’avenir

La conséquence évidente de cette course est le coût : Reuters a récemment indiqué qu’OpenAI prévoit de dépenser environ 600 milliards de dollars en « compute » jusqu’en 2030.

En résumé, si Stargate avait été conçu comme une réponse structurelle majeure, la réalité immédiate consiste à acheter de la capacité là où elle est disponible, en concluant des accords avec des fournisseurs ayant la capacité financière et la rapidité de déploiement nécessaires, même si cela complique la gestion opérationnelle et réduit le contrôle direct.

Implications pour le marché (et pourquoi l’Europe doit s’en soucier)

Pour l’écosystème technologique, cela transmet un message difficile : la compétitivité en IA ne dépend pas uniquement des modèles ou des talents, mais aussi de contrats d’énergie, d’autorisations, de localisation et de matériel. En 2026, ces paramètres commencent déjà à influencer les décisions d’affaires : alliances, achats anticipés, investissements croisés et accords multi-filières pour ne pas se faire dépasser.

Il y a aussi une dimension géopolitique : si l’infrastructure se concentre en quelques acteurs capables de déployer des gigawatts, l’équilibre entre innovation et dépendance devient plus fragile. La “souveraineté” de l’IA ne se décide pas uniquement via des lois ou une stratégie industrielle, mais aussi par la construction et l’alimentation de centres de données équipés de puces.


Questions fréquemment posées

Qu’est-ce que le projet Stargate d’OpenAI et quelle capacité vise-t-il à atteindre ?
Stargate est une initiative annoncée en 2025 pour développer une infrastructure IA à grande échelle aux États-Unis, visant une capacité finale de 10 GW avec un investissement total estimé à 500 milliards de dollars.

Pourquoi OpenAI utilise-t-elle AWS et Google Cloud alors qu’elles sont concurrentes en IA ?
Car le facteur limitant est le « compute » : pour entraîner et faire fonctionner des modèles à grande échelle, OpenAI doit disposer d’une capacité suffisante sur plusieurs clouds. La diversification réduit les risques de disponibilité et accélère la mise en œuvre.

Que permet l’accord d’OpenAI avec Cerebras pour ChatGPT et l’inférence ?
Il apporte une capacité de calcul spécialisée pour une faible latence et une haute disponibilité en inférence, avec un déploiement prévu à partir de 750 MW, essentiel pour des charges où la rapidité de réponse est critique.

Quel est l’impact des dépenses massives en centres de données sur les entreprises souhaitant adopter l’IA ?
Cela peut améliorer l’accès à la capacité à moyen terme, mais aussi exercer une pression sur les prix, les délais et la disponibilité à court terme. La réussite des projets IA dépendra en grande partie de la capacité à réserver rapidement des ressources cloud.

via : digitimes

le dernier