La guerre de l’intelligence artificielle ne se joue plus uniquement dans les laboratoires de modèles. Elle se décide – de plus en plus – dans les contrats d’infrastructure. En seulement quelques mois, OpenAI est passé d’un soutien quasi exclusif à Microsoft Azure à une stratégie multicloud sans précédent, signant des accords majeurs avec Amazon Web Services (AWS), Google Cloud et Oracle. Le résultat est une nouvelle carte de pouvoir qui évolue rapidement : l’entreprise derrière ChatGPT assure des capacités de calcul sur plusieurs fronts, forçant la réorganisation de l’équilibre entre les grands hyperscalers.
La dernière évolution, annoncée le 3 novembre 2025, fait grand bruit : un contrat de sept ans avec AWS évalué à 38 milliards de dollars pour exploiter et étendre les charges d’entraînement, d’inférence, et — de façon cruciale — d’IA agentielle. Ce n’est pas simplement « plus de cloud » : l’accord inclut des centaines de milliers de GPU NVIDIA (séries GB200 et GB300) interconnectés via Amazon EC2 UltraServers, avec la possibilité de scaler jusqu’à des dizaines de millions de CPU pour gérer les composants logiques et séquentiels des agents intelligents. La capacité commence à se déployer immédiatement, visant à atteindre une masse critique avant la fin 2026, avec des marges de croissance pour 2027.
Mais cette transformation d’OpenAI n’est pas indépendante des autres piliers du multicloud. Microsoft demeure un partenaire stratégique — avec investissements et droits — ; Google a rejoint en juin pour renforcer la capacité ; et Oracle collabore depuis 2024, avec selon la presse économique, un accord monumental en préparation pour la seconde moitié de la décennie. Voici un aperçu des pièces du puzzle et ce qu’elles signifient pour la guerre de l’IA.
Microsoft : de fournisseur quasi exclusif à actionnaire clé… tout en permettant le multicloud
Pendant des années, Azure était la maison d’OpenAI. En octobre 2025, suite à une recapitalisation et à une réorganisation légale, Microsoft détient environ 27 % d’OpenAI (via sa participation dans la nouvelle PBC), consolidant un lien financier qui, — nouveauté— cohabite avec une ouverture à d’autres fournisseurs cloud. Ce même contexte prévoit un engagement supplémentaire de 250 milliards de dollars en Azure, tout en abrogeant le droit de premier regard de Microsoft sur de nouvelles charges. En résumé : Microsoft reste impliqué, et fort, mais OpenAI conserve la liberté de diversification.
Cette diversification répond à des besoins physiques (énergie, espace, approvisionnement en puces, latences intercontinentales) et à des besoins financiers : avec des modèles en croissance et un plan d’affaires visant à développer rapidement services et agents, s’enfermer dans un seul fournisseur devient un risque accru.
AWS : 38 milliards pour placer l’infrastructure au cœur
L’accord avec AWS marque une étape décisive : OpenAI utilisera immédiatement l’infrastructure d’Amazon pour l’entraînement, l’inférence et les agents. Voici le volet technique :
- GPU à grande échelle : GB200 et GB300 de NVIDIA dans des clusters UltraServers, avec des réseaux internes optimisés pour faible latence et performance soutenue.
- CPU massif : capacité à déployer des dizaines de millions de CPU, pas une simple publicité — c’est la preuve que OpenAI va orchestrer des agents en nausées — avec états, files d’attente et politiques sophistiquées.
- Planning : déploiement immédiat, avec un objectif d’ici à la fin 2026 et une croissance continue en 2027+.
Pour AWS, c’est stratégique : pendant des mois, on l’a perçu comme « en retrait » dans la course IA face à Microsoft et Google ; avec Anthropic déjà intégré et maintenant OpenAI, AWS devient la « Suisse » du calcul de pointe : une voie où circulent plusieurs des meilleurs modèles mondiaux. Pour NVIDIA, cette alliance envoie un signal clair : leur GPU reste un élément pivot du secteur ; OpenAI demande leurs matériels, pas leurs alternatives internes.
Google Cloud : capacité supplémentaire pour une demande incessante
En juin 2025, des sources annonçaient que OpenAI intégrerait Google Cloud pour renforcer sa capacité. Pas de chiffre public ou de gros titres, mais un geste significatif : deux rivaux directs dans modèles (Google avec Gemini) et utilisateurs (ChatGPT versus autres) collaborent parce que la physiquement, il faut de la capacité. La demande extrême en mégaoctets et en silicium oblige à étendre les datacenters mondiaux, à réduire la latence, à ajouter de la redondance, et à mitiger les risques en approvisionnement.
De la part de Google, faire monter OpenAI en charge est une validation de son infrastructure IA (réseaux, stockage haute performance, sécurité) et un pas de plus vers sa vision de la « cloud prêt pour l’IA ». Pour OpenAI, c’est assurer qu’aucune région ou fournisseur ne devienne un point unique de défaillance face à la demande qui explose.
Oracle : du « Azure sur OCI » au contrat colossal annoncé pour la seconde moitié de la décennie
Oracle a été le premier acteur tiers à apparaître aux côtés de Microsoft pour déployer Azure AI sur Oracle Cloud Infrastructure (OCI), un schéma annoncé en juin 2024 : plus de capacité pour Azure hébergée sur OCI, avec des latences faibles grâce à des interconnexions exclusives entre les deux clouds. Un an plus tard, en septembre 2025, The Wall Street Journal et autres médias rapportaient un accord historique entre Oracle et OpenAI pour la seconde moitié de la décennie : environ 300 milliards de dollars sur cinq ans, avec 4,5 GW de capacité en centres de données, à partir de 2027. Oracle n’a pas précisé les détails, OpenAI n’a pas démenti, et cette somme — en attente de confirmation détaillée — cadre avec la course à sécuriser énergie, terrain et réseaux à grande échelle.
Un point crucial souvent sous-estimé : les contrats multicloud ne se limitent pas à « une nouvelle région » ou « au meilleur prix ». Il s’agit aussi de lots d’énergie, de permis, et de travaux. Garantir des gigawatts, des substations, des câbles, des systèmes de refroidissement et des approbations locales. Ceux qui arrivent tard n’ont aucune chance d’entraîner ou d’inférer, sauf s’ils ont déjà sécurisé leur infrastructure à grande échelle.
Pourquoi OpenAI se tourne vers le multicloud (et pourquoi cela bouleverse le secteur)
- Risque opérationnel : si un fournisseur connaît un goulot d’étranglement (puces, permis, énergie), le programme ne s’arrête pas. Il est redirigé vers un autre fournisseur ou une autre infrastructure.
- Couverture et latence : pour des inférences et des agents servant des utilisateurs globaux, il faut prioriser la proximité ; disperser la capacité réduit les files d’attente et limite les erreurs.
- Negociation des coûts : des engagements pluriannuels avec plusieurs fournisseurs permettent d’affiner les prix et de définir des priorités.
- Gouvernance : face à la montée des régulateurs, la répartition des charges permet de réduire le risque de concentration de pouvoir dans l’IA et la cloud.
Pour les hyperscalers, le message est double. Microsoft conserve un client et investisseur clé, mais n’est plus seul. AWS reprend du terrain et accélère son discours de « colonne vertébrale de l’IA » ; Google augmente sa capacité ; et Oracle se positionne pour le futur (2027+). Pour NVIDIA, tous chemins mènent — pour l’instant — à ses GPU : la demande croîtra là où il y a chips et énergie.
Et les chiffres ? La physique et la comptabilité
Ceux qui ne regardent que le chiffre d’affaires d’OpenAI — environ 13 milliards de dollars par an — face à un capex»> engagé évalué par certains analystes à plus d’un billion (anglo-saxon), peuvent percevoir une dissonance apparente. Ce n’est pas si simple si l’on comprend le modèle financier qui a fait la popularité du cloud généraliste ces dix dernières années :
- Contrats d’usage garanti sur plusieurs années.
- Investissement du fournisseur (centres, énergie, réseaux, puces), soutenu par ces engagements.
- Prix et priorités négociés, permettant au client de monétiser ses produits (ChatGPT, API, agents, solutions verticales).
Le risque demeure — pour le fournisseur comme pour le client —, mais il est réparti selon un calendrier et réparti sur plusieurs géographies.
Implications pour les entreprises et développeurs
Plus de capacité disponible sur AWS, Azure, Google et OCI pour des charges d’IA « prêtes à évoluer ». Nous verrons apparaître de nouvelles instances et services gérés intégrant les innovations en réseau et stockage déployées pour OpenAI. L’IA agentielle gagnera du terrain car, enfin, des CPU et de la mémoire proches des données permettront d’organiser des flux complexes avec des SLOs raisonnables. Et le coût par token aura tendance à se stabiliser, car la compétition pour héberger les grands modèles réduira la pression sur les prix.
Pour les équipes techniques, la stratégie est claire : concevoir des architectures portables, multimodèles, et multi-agents. Veiller à la gouvernance (qui questionne, quels données, ce qui est retourné, comment auditer) et mesurer dès le départ le temps de traitement (TTFT), le p95/p99 et le coût par interaction. Le vendor lock-in persiste, mais peut être mieux négocié avec deux ou trois fournisseurs.
Les enjeux pour 2026
- Énergie et permis : Les fournisseurs seront-ils capables de déployer gigawatts selon le calendrier prévu ?
- Réseaux et latence : Jusqu’où pourront aller les réseaux internes pour des clusters multibillions de tokens/sec sans goulots d’étranglement ?
- Régulations : La FTC et la Commission Européenne scrutent déjà l’oligopole IA + cloud ; des remèdes et des conditions pourraient émerger.
- Économie des agents : si l’IA agentielle tient ses promesses, on verra une réécriture des chaînes de valeur. Sinon, ce sera simplement une couche supplémentaire d’assistants plus coûteux.
Questions fréquentes
Microsoft reste-t-il le principal fournisseur d’OpenAI ?
Oui. Microsoft demeure un partenaire clé : il détient environ 27 % après recapitalisation, et OpenAI a étendu son engagement sur Azure à près de 250 milliards de dollars. Toutefois, OpenAI n’est plus totalement dépendant d’Azure : elle peut confier de nouvelles charges à AWS, Google Cloud ou Oracle.
Que comprend le contrat de 38 milliards avec AWS que n’offrirait pas Azure ?
Une mise à disposition immédiate de grands clusters GPU (GB200/GB300) via UltraServers, des réseaux internes à faible latence, et une capacité d’escalade CPU à très grande échelle pour les agents. Surtout, il ajoute de la diversification : plus de capacité, de géographies et des prix négociés.
OpenAI utilise-t-il aussi Google Cloud ?
Oui. En juin 2025, OpenAI a intégré Google Cloud pour accroître sa capacité, rapporte Reuters. Sans chiffres publiés, mais cela s’inscrit dans la stratégie multicloud.
Que savoir sur Oracle ? Vérités ou rumeurs ?
OpenAI collabore avec Oracle depuis 2024 via le schéma Azure sur OCI (plus de capacité Azure sur Oracle Cloud Infrastructure). En septembre 2025, le WSJ évoquait un accord de 300 milliards de dollars sur cinq ans, à partir de 2027, incluant 4,5 GW de datacenters. Oracle n’a pas confirmé officiellement ; si c’est le cas, ce serait l’un des plus grands contrats de cloud de l’histoire.