Amazon prépare un déploiement historique dans AWS pour soutenir la demande de cloud pour l’IA

Amazon prépare un déploiement historique dans AWS pour soutenir la demande de cloud pour l'IA

Amazon est prêt à porter la course à l’infrastructure de l’Intelligence Artificielle à un nouveau niveau. Selon les informations publiées au cours des dernières semaines, la société prévoit d’augmenter ses investissements en capital (capex) jusqu’à 200 milliards de dollars d’ici 2026, une somme principalement destinée à étendre les centres de données d’AWS, renforcer les réseaux et poursuivre sa stratégie autour de chips propres pour l’IA. Ce mouvement reflète une réalité de plus en plus préoccupante pour le secteur : dans le cloud, le principal goulot d’étranglement n’est plus seulement le logiciel, mais la capacité physique disponible.

Le message envoyé par Amazon est clair. Les entreprises passent de la simple expérimentation à l’exploitation de l’IA en production, et ce passage multiplie la consommation de puissance de calcul, de stockage, de réseaux et — surtout — d’énergie. Il ne suffit pas d’avoir des GPU : il faut des racks complets, de la refroidissement, de la fibre optique, des équipements de commutation, des contrats d’électricité et une planification qui s’étale sur plusieurs années. Dans ce contexte, Amazon mise sur la construction proactive avant que la demande ne dépasse la capacité du système.

De 131 milliards à 200 milliards : le capex comme indicateur de la fièvre de l’IA

Reuters situe le point de départ à 131 milliards de dollars de capex en 2025, avec un bond en 2026 jusqu’à 200 milliards, soit une hausse de plus de 50 %. Cette accélération explique pourquoi Wall Street observe chaque annonce d’investissement avec une fascination mêlée de nervosité : le marché souhaite une croissance, mais exige aussi que ces dépenses se traduisent en revenus durables.

Lors d’un appel avec des investisseurs rapporté par Reuters, Andy Jassy a souligné que AWS poursuit sa croissance de manière forte et a rappelé un point important : comparer des pourcentages sans tenir compte des bases peut donner une image déformée. Au dernier trimestre déclaré, les revenus d’AWS ont atteint 35,6 milliards de dollars, avec une croissance interannuelle de 24 %, tandis que Google Cloud progressait plus rapidement en pourcentage mais sur une base plus petite, et Azure maintenait un rythme soutenu. En résumé : AWS ne croit pas à la croissance la plus rapide, mais il part d’une longueur d’avance considérable.

Tableau — Capex d’Amazon et croissance d’AWS (références publiques récentes)

Indicateur Données
Capex 2025 (Amazon) 131 milliards $
Capex 2026 (Amazon, prévu) 200 milliards $
Variation approximative +52,7 %
Revenus AWS (trimestre cité) 35,6 milliards $
Croissance interannuelle AWS (trimestre cité) +24 %

Le « cloud pour l’IA » change les règles : plus d’énergie, plus de réseau, plus de chips

Pendant des années, l’expansion du cloud s’est expliquée par une migration : transférer des serveurs on-premise vers un fournisseur. L’IA a bouleversé cette trajectoire. Entraîner et déployer des modèles modernes augmente drastiquement la consommation de puissance de calcul et de réseaux, et oblige à redimensionner tout ce qui l’entoure : de la configuration du data center à la conception thermique.

De plus, Amazon essaie de ne pas dépendre uniquement du silicium externe. Ses chips Trainium et Inferentia — conçus pour l’entraînement et l’inférence — font partie d’une stratégie visant à optimiser les coûts et la disponibilité sur un marché où le hardware spécialisé devient une ressource rare. À ce stade, le capex ne se limite plus à « construire plus de bâtiments » : il inclut également plus d’ingénierie de plateforme, une capacité réseau à faible latence et davantage d’investissements dans des composants qui raccourcissent le chemin entre données et décision.

Une course à l’hyperéchelle mesurée en centaines de milliards

Amazon n’est pas seule. Bridgewater estime qu’Alphabet, Amazon, Meta et Microsoft pourraient investir environ 650 milliards de dollars en infrastructure IA d’ici 2026, contre 410 milliards en 2025. L’analyse évoque une phase plus risquée : la demande de puissance de calcul dépasse encore l’offre, et le secteur accélère ses dépenses pour tenter de rattraper le retard.

Cette dynamique crée un effet boule de neige. Plus d’investissements génèrent une pression accrue sur les chaînes d’approvisionnement, les sites industriels, la délivrance des permis, la disponibilité de l’énergie et les prix. Et, de l’autre côté, cela accroît la dépendance : si une entreprise construit son environnement autour de l’IA dans le cloud, la disponibilité de la capacité et la résilience deviennent des enjeux cruciaux, bien plus que de simples questions techniques.

Ce que cela peut signifier pour les entreprises : capacité, délais et stratégie fournisseur

Pour les clients corporatifs, cette annonce comporte une lecture concrète : Amazon pense que la demande va continuer à croître et cherche à éviter que AWS devienne un goulet d’étranglement. Si ces investissements se traduisent par une capacité accrue, les organisations devraient observer :

  • Moins de friction pour faire évoluer leurs projets d’IA (de la phase pilote à la production) sans se heurter à des limites d’infrastructure.
  • Plus d’options d’architecture, en particulier si AWS étend la disponibilité et la maturité de ses propres solutions hardware dédiées à l’IA.
  • Une cloud de plus en plus « plateforme d’automatisation », intégrant l’infrastructure comme un composant essentiel du produit plutôt qu’un simple lieu d’hébergement.

Mais il y a aussi une mise en garde implicite : si le secteur se trompe sur le rythme d’adoption ou la rentabilité future, le coût de maintien de cette infrastructure pourrait comprimer les marges et faire fléchir les prix. Dès lors, le débat ne se limite plus à la dimension technologique, mais englobe aussi les aspects financiers et opérationnels.

En définitive, la grande transformation prévue pour 2026 ne consiste pas seulement à ce que « le cloud héberge de l’IA ». C’est que l’IA oblige le cloud à se comporter comme une industrie lourde : avec des investissements de grande échelle presque électriques, une planification à long terme, et une bataille silencieuse pour les ressources physiques indispensables au fonctionnement du logiciel.


Questions fréquentes

Que signifie « capex » chez AWS et pourquoi est-ce crucial pour les projets d’IA générative ?
Le capex correspond aux dépenses en infrastructures (données, serveurs, réseaux, chips, etc.). Dans le cadre de l’IA générative, il détermine la capacité réelle d’entraînement et d’exécution à grande échelle des modèles.

Comment les chips Trainium et Inferentia d’AWS influencent-ils les coûts de l’IA dans le cloud ?
Ce sont des hardware conçus par Amazon pour optimiser l’entraînement et l’inférence. Leur adoption massive peut améliorer la disponibilité et ajuster les coûts par rapport à des alternatives tierces, selon la charge de travail et le logiciel utilisé.

Cette expansion peut-elle réduire les problèmes de « manque de capacité » de GPU dans le cloud ?
Objectif : agrandir les centres de données et la plateforme pour soulager une partie de la pression. Cependant, la croissance rapide de la demande maintient un équilibre délicat entre offre et demande, pouvant continuer à provoquer des pics de tension.

Que doivent prendre en compte les DSI et les équipes plateformes pour planifier l’IA en 2026–2027 ?
Il est conseillé de concevoir une approche résiliente : stratégie multi-régionale, surveillance des coûts, plans de contingence de capacité, et une évaluation réaliste des dépendances (modèle, données, réseau, latence et engagement fournisseur).

le dernier