Oracle s’endette de 18 milliards de dollars pour accélérer le déploiement de ses centres de données IA

Oracle s'endette de 18 milliards de dollars pour accélérer le déploiement de ses centres de données IA

Oracle a opéré un virage financier majeur pour soutenir son ambition dans le secteur du cloud dédié à l’intelligence artificielle (IA). La société fondée par Larry Ellison a procédé à une émission obligataire de 18 milliards de dollars, conformément à une notification déposée auprès des régulateurs américains, dans le but explicite de financer des investissements en capital (capex) liés à un déploiement massif de centres de données et à la fourniture de capacités de calcul pour ses clients en IA. Cette émission comporte des échéances échelonnées : le premier lot arrive à maturité en 2030, et d’autres s’étendent jusqu’en 2065, selon la documentation et les analyses spécialisées.

Ce mouvement intervient à un moment où Oracle s’impose comme l’acteur central du récent “boom” de l’IA, notamment grâce à son partenariat avec OpenAI dans le cadre du projet Stargate. Ce projet, plateforme d’infrastructure, vise à fournir des gigawatts de capacité informatique indispensables pour supporter les derniers modèles génératifs. Ces derniers jours, OpenAI, Oracle et SoftBank ont annoncé cinq nouveaux sites de centres de données aux États-Unis, en plus de l’expansion du campus d’Abilene (Texas). Avec ces nouveaux emplacements — Shackelford County (Texas), Doña Ana County (Nouveau-Mexique), Milam County (Texas), Lordstown (Ohio) et un site non dévoilé dans le Midwest — Stargate frôle déjà les 7 GW de capacité planifiée et dépasse les 400 milliards de dollars d’investissements engagés pour les années à venir, selon les annonces officielles et rapports d’agences.

Une stratégie à long terme

Cette émission de dette révèle deux idées centrales. D’abord, Oracle aspire à devenir un fournisseur “de facto” de capacité informatique pour les grands acteurs de l’IA, nécessitant pour cela un coussin financier sur plusieurs décennies, d’où l’amortissement jusqu’en 2065. Ensuite, la fenêtre d’opportunité est aujourd’hui : la course à la création de centres de données est fortement capitalistique, dépendante des chaînes d’approvisionnement hardware (GPU, mémoire HBM, réseaux, stockage) et conditionnée par disponibilité d’énergie et l’obtention de permis en locales avec un réseau électrique solide.

Oracle avait déjà indiqué ses ambitions. Lors de sa dernière conférence avec les analystes, Safra Catz, ancienne CEO et actuelle présidente, a souligné que la société avait signé des contrats “importants” avec des acteurs clés de l’IA, dont trois contrats multimillionnaires au premier trimestre 2025. Ce ton optimiste s’est traduit dans les chiffres : Oracle a annoncé 455 milliards de dollars d’“obligations de performance restantes” (RPO), un indicateur qui a fait sensation à Wall Street, propulsant temporairement Larry Ellison au sommet des fortunes mondiales, en raison de la forte valorisation de ses actions.

Le projet Stargate : envergure, géographies et partenaires

Stargate est devenu l’épicentre du déploiement de centres de données pour l’IA aux États-Unis. La feuille de route présentée par OpenAI et ses partenaires vise à atteindre 10 GW de capacité — une taille comparable à un système électrique régional — et prévoit une dépense totale pouvant atteindre 500 milliards de dollars une fois le projet achevé. La récente extension de cinq nouveaux sites porte déjà la capacité planifiée au-delà de 6,5 à 7 GW, avec Abilene comme vignoble emblématique et une cadence qui anticipe la besoin en entraînement et mise en production de modèles.

Pour Oracle, cet encastrement présente une double dimension. D’une part, il fournit de la capacité via Oracle Cloud Infrastructure (OCI) aussi bien dans ses propres installations que dans celles d’acteurs tiers — notamment Microsoft et Google —, avec une stratégie “cloud partout” permettant de déployer du hardware à proximité de la demande, plutôt que d’obliger les clients à déplacer leurs charges vers des régions périphériques. D’autre part, l’entreprise signe des contrats à long terme pour l’usage de cette capacité, en partenariat avec des opérateurs en IA (dont OpenAI), à la fois pour assurer une visibilité sur ses revenus et pour bénéficier d’économies d’échelle dans ses achats de TI.

Le contrat de 300 milliards de dollars et le débat sur la durabilité

Un des éléments les plus marquants est la rumeur d’un contrat de 300 milliards de dollars entre OpenAI et Oracle pour cinq ans de services cloud. Bien que cette information fasse l’objet de scepticisme — compte tenu de l’envergure du montant et des difficultés historiques de financement de OpenAI —, elle illustre l’ordre de grandeur dans cette compétition d’infrastructures pour l’IA. D’autres accords, notamment avec CoreWeave et Nvidia, enrichissent cette chaîne d’approvisionnement en composants et capacités, formant un puzzle financier que certains analystes considèrent comme circulaire et tensions potentielles.

Par ailleurs, diverses analyses et médias spécialisés appellent à un “réalisme critique”. Si la demande en IA est réelle et en croissance, la monétisation à ce rythme n’est pas assurée. La construction de centres, la pénurie de GPU et de mémoire avancée, ainsi que la nécessité d’une interconnexion électrique capable de soutenir des installations de 300–600 MW par campus, introduisent des risques opérationnels et financiers. Même avec un endettement sur 40 ans, le délai entre investissement et rentrées de cash pourrait mettre à l’épreuve la solidité des bilans si les flux ne se matérialisent pas comme prévu.

Pourquoi la dette maintenant ?

Le contexte macroéconomique explique en partie le timing. Le marché obligataire corporate est en forte demande pour des émissions “investment grade” associées à des perspectives de croissance. Selon plusieurs sources, Oracle envisageait initialement de lever 15 milliards, avant d’étendre cette opération à 18 milliards face à l’intérêt des investisseurs, preuve de leur confiance dans la croissance de l’IA et dans la capacité d’Oracle à signer des contrats longue durée.

Le facteur clé réside aussi dans l’ampleur du capex. Un centre dédié à l’IA, avec plusieurs centaines de mégawatts, requiert plusieurs milliards d’investissements en infrastructure, énergie, refroidissement, réseaux à haute vitesse, sécurité, ainsi que dans le cœur du hardware (GPUs, interconnexions NVLink/Infiniband, stockage haute performance, mémoire HBM). Financer cette vague d’acquisitions sans diluer le capital et tout en maintenant un coût du capital compétitif justifie le recours à la dette, avec des échéances alignées sur la durée de vie des actifs, soit 30 à 40 ans, tout en sécurisant des contrats sur plusieurs années.

L’énergie : une variable stratégique

Aucune de ces initiatives ne peut aboutir sans énergie abondante, fiable et à un coût stable. Les annonces de Stargate ciblent des zones où il est possible d’assurer gigawatts de puissance grâce à des combinaisons de génération traditionnelle, renouvelable, contrats “sleeved” et stockage. Cette semaine, les partenaires ont chiffré : jusqu’à 25 000 emplois locaux durant la construction et l’exploitation, avec un soutien accru aux chaînes d’approvisionnement locales. Le principal obstacle demeure la connexion au réseau électrique : les délais d’attente peuvent aller de 3 à 7 ans, faute d’infrastructures préexistantes suffisantes.

Pour les régions choisies, l’équilibre entre impact économique et consommation électrique est devenu un enjeu public majeur. Certaines juridictions exigent des engagements en matière d’efficacité énergétique (PUE, réutilisation de chaleur, refroidissement liquide, batteries BESS) et de formation technique pour attirer et retenir des talents. Oracle, habituée à collaborer avec des centres tiers en plus de ses propres installations, pourrait moduler son déploiement et accélérer l’entrée en service en recourant à des solutions de colocation ou de “build-to-suit”, évitant ainsi la dépendance exclusive aux projets “greenfield”.

Le positionnement d’Oracle face à Microsoft, Google et autres hyper-scalers

Bien qu’elle soit généralement perçue comme concurrente, Oracle joue aussi un rôle de fournisseur d’infrastructure pour des géants comme Microsoft et autres hyper-scalers. Sa stratégie “OCI déployée chez des tiers” limite la friction commerciale : le client peut utiliser Oracle Database, Exadata, services OCI là où ses charges se trouvent — y compris dans les data centers de Azure ou Google — tout en permettant à Oracle de monétiser son hardware et d’accumuler des RPO. Ce modèle, peu orthodoxe pour un “cloud pur”, associe colocation et cloud dans des accords d’interopérabilité hier rares, aujourd’hui intégrés dans le paysage de l’IA.

Risques : exécution, coûts et régulation

Le principal risque est celui de l’exécution : la mise en œuvre de plusieurs gigawatts en quelques années implique des travaux simultanés dans plusieurs États, avec des dizaines de fournisseurs et milliers de sous-traitants. Tout retard dans les sous-stations, lignes de transmission, équipements de refroidissement ou GPU peut décaler le calendrier et faire monter les coûts.

Sur le plan financier, le risque n’est pas moindre. Le fort endettement historique d’Oracle a jusqu’ici eu un effet de levier positif ; toutefois, dans un environnement de taux d’intérêt volatile et avec des contrats initialement anticipés à long terme, la demande en IA pourrait se normaliser avant que les flux financiers ne soient consolidés, fragilisant la santé du bilan. Certains analystes pointent aussi un risque de “financement circulaire” et de tensions potentielles, sous la pression d’une chaîne d’approvisionnement interconnectée et d’accords financiers imbriqués, qui pourraient attirer l’attention des autorités antitrust américaines ou européennes.

Enfin, sur le plan réglementaire, l’IA générative est sous surveillance accrue : enjeux de respect de la vie privée, droits d’auteur, sécurité et résilience critique des infrastructures. Les mégaprojets IA peinent à concilier leur forte consommation électrique avec les priorités industrielles, domestiques et renouvelables, positionnant ces centres au cœur des débats énergétiques et réglementaires.

Impacts sur le marché

À court terme, cette émission de 18 milliards donne à Oracle la capacité d’assurer l’acquisition de terrains, la fourniture de puissance, de chips et la signature d’accords EPC. Sur le moyen terme, si Stargate maintient le rythme et que les clients en IA consomment comme prévu, Oracle pourra consolider son rôle de “locataire principal” de l’IA — un “landlord” qui loue du calcul et des services gérés à des laboratoires et entreprises ne souhaitant ou ne pouvant pas construire à cette échelle. Sur le long terme, la rentabilité dépendra de la flexibilité des prix du calcul IA, de l’efficacité énergétique (réduction du PUE, refroidissement liquide, récupération de chaleur) et de l’évolution hardware (nouvelles générations de GPUs, NPUs, mémoire HBM, interconnexion optique).

Ce qui est certain, c’est qu’Oracle a opté pour le “chemin rapide”. Avec des bonds jusqu’en 2065, des contrats de plusieurs milliards et des campus de centaines de mégawatts, sa stratégie n’est pas opportuniste : elle cherche à occuper une place centrale dans l’économie de l’IA pour les décennies à venir. La question qui demeure — pour Oracle, OpenAI et l’ensemble de l’écosystème — est de savoir si la courbe de revenus pourra suivre celle de l’investissement, à la vitesse exigée par les gigawatts d’aujourd’hui.


Questions fréquentes

1) Que signifie pour Oracle les 455 milliards de dollars en “remaining performance obligations” et pourquoi est-ce important pour les centres de données de l’IA ?
Les RPO représentent les revenus engagés dans des contrats signés mais non encore reconnus. Pour l’IA, elles offrent une vision à long terme de la demande en calcul et en services cloud. Concrètement, elles servent à garantir le financement par emission obligataire et à planifier les investissements sur plusieurs années, en montrant que la capacité construite est déjà sous contrat et donc assurée.

2) Où seront situés les nouveaux centres Stargate et quelle capacité y seront-elles ajoutées à court terme ?
OpenAI, Oracle et SoftBank ont confirmé cinq sites : Shackelford (Texas), Doña Ana (Nouveau-Mexique), Milam (Texas), Lordstown (Ohio) et un site dans le Midwest encore inconnu. Avec Abilene (Texas) et d’autres projets en parallèle, la capacité prévue dépasse déjà 7 GW et vise à atteindre 10 GW dans le cadre du projet Stargate.

3) Comment l’émission de 18 milliards de dollars s’articule-t-elle avec les délais et coûts des mégacentres IA ?
Les bons permettent à Oracle de précommander énergie, terrains, travaux et hardware à grande échelle. Avec une échéance jusqu’en 2065, elles s’alignent sur la durée de vie des actifs physiques et avec des
contrats pluriannuels avec des clients IA, atténuant ainsi le risque de refinancement en phase critique d’investissement.

4) Un contrat de 300 milliards de dollars entre OpenAI et Oracle, est-ce crédible ? Que pensent les analystes ?
Des médias financiers évoquent un tel accord ; toutefois, sa faisabilité est sujette à caution compte tenu de l’ampleur du montant et de la complexité de sa mise en œuvre, particulièrement face aux défis de financement chez OpenAI. D’autres accords se multiplient, notamment avec CoreWeave et Nvidia, ce qui reflète une chaîne de valeur interdépendante. La majorité des analystes considèrent que le montant est élevé, et que la réussite de cette vision dépendra de l’exécution concrète.

5) Quels risques réglementaires et énergétiques pèsent sur un déploiement de 5 à 10 GW en IA aux États-Unis ?
Les permis électriques, la capacité de transmission, les contrats PPA, ainsi que les enjeux environnementaux (efficacité, consommation d’eau, bruit, chaleur résiduelle) peuvent freiner ou compliquer le déploiement. La forte consommation électrique des centres IA suscite également des débats publics liés à la durabilité et à la priorisation de l’énergie dans le système.

6) En quoi la stratégie d’Oracle diffère-t-elle de celle de Microsoft, Google ou d’autres hyper-scalers ?
Oracle ne se contente pas de la compétition : elle déploie aussi ses hardware et services dans des centres tiers (Azure, Google), avec une approche interopérable combinant colocation et cloud, pour pénétrer des marchés où d’autres sont déjà présents et signer des contrats IA sans attendre la construction de toutes les régions.

7) Quel impact sur l’emploi et l’économie locale avec les nouveaux campus IA ?
Les partenaires de Stargate estiment la création de plusieurs milliers d’emplois directs lors des phases de construction et d’exploitation, pouvant atteindre 25 000 emplois sur site pour les nouveaux projets, tout en stimulant les fournisseurs, la formation technique et la fiscalité. La réalité dépendra surtout des incitations publiques et des délais d’accès à l’énergie.

8) Quelles seront les technologies clés pour réduire les coûts opérationnels (OPEX) des centres IA ?
L’industrie mise sur la refroidissement liquide direct, immersion, PUE inférieur à 1,2, récupération de chaleur et stockage BESS pour gérer les pics. Ces innovations optimisent la densité par rack, allongent la durée de vie de l’infrastructure et réduisent les coûts, tout en s’adaptant à des GPUs toujours plus chauds et endurants. (Sources : littérature technique et rapports sectoriels)

via : datacenterdynamics

le dernier