Le marché mondial des services d’infrastructure cloud continue de croître à une régularité qui, il y a seulement deux ans, semblait difficile à soutenir. Les dépenses mondiales ont atteint 102,6 milliards de dollars US au troisième trimestre 2025, ce qui représente une augmentation annuelle de 25%. Il s’agit également du cinquième trimestre consécutif avec une croissance supérieure à 20 %, témoignant que la demande ne se limite pas à la phase d’expérimentation, mais se reconfigure autour d’un phénomène qui influence désormais budgets, planification et stratégies : l’Intelligence Artificielle, qui passe du test à des déploiements à grande échelle.
Ce chiffre doit se lire au-delà du volume : la croissance demeure « stable » tandis que les entreprises sortent de la phase d’expérimentation. Concrètement, le cloud n’est plus évalué uniquement par sa puissance brute ou par la diversité de modèles disponibles, mais par sa capacité à soutenir des applications d’entreprise avec multiples modèles, opérations fiables et agents fonctionnant dans des environnements réels, garantissant continuité opérationnelle et conformité réglementaire.
Les hyperéchelleurs concentrent 66 % des dépenses… mais la priorité évolue
Au cours de ce troisième trimestre 2025, AWS, Microsoft Azure et Google Cloud ont maintenu leur position dans le classement et, ensemble, ont concentré 66 % des dépenses mondiales en services d’infrastructure cloud. Leur croissance interannuelle s’élève à 29 %, consolidant une réalité bien connue : le marché reste dominé par ces grands hyperéchelleurs.
Ce qui change, c’est le type de compétition. La recherche indique un changement de priorités : on assiste à moins d’accent sur des améliorations incrementelles des modèles « en soi » et davantage sur la fourniture de capacités de plateforme permettant de déployer et faire fonctionner une Intelligence Artificielle robuste, notamment pour des applications combinant plusieurs modèles, outils et agents coordonnés.
Un nouveau concept commence à émerger dans les comités de direction : multi-modèle comme exigence de production. L’idée est simple : si l’entreprise dépend d’une génération de contenus basée sur l’IA, elle souhaite pouvoir changer de modèle en fonction du coût, de la latence, du contrôle du risque ou de la disponibilité. En résumé, la résilience ne se limite plus à l’infrastructure, mais inclut également la stratégie de gestion des modèles.
AWS accélère jusqu’à 20 % et enregistre son meilleur trimestre depuis 2022
AWS a dominé le marché avec une part de 32 % et une croissance interannuelle de 20 %, ses meilleures performances depuis 2022. Deux facteurs expliquent cette accélération : l’amélioration des contraintes d’approvisionnement en capacité de calcul et la demande accrue liée à sa relation avec Anthropic.
Un indicateur fort de cette dynamique est le backlog (carnet de commandes) rapporté par AWS à la clôture du trimestre : 200 milliards de dollars US. Cela suggère une visibilité sur la demande future et une pression continue sur la capacité.
Côté plateforme, AWS pousse avec Amazon Bedrock, qui offre une diversité accrue de modèles ainsi que des outils pour l’exploitation en environnement d’entreprise. Le rapport mentionne le support pour Claude 4.5, 18 modèles gérés à poids ouvert, ainsi que des améliorations dans Guardrails et l’automatisation des données. Le message est clair : il ne suffit pas d’avoir des modèles, il faut aussi y garantir sécurité, contrôle et mécanismes d’exploitation.
Par ailleurs, lors de re:Invent 2025, AWS a renforcé son lot de solutions de bout en bout pour l’entreprise, avec l’annonce de la gamme Nova 2, Nova Act et Nova Forge. La région Asie-Pacifique (Nouvelle-Zélande) a également été lancée en septembre, avec trois zones de disponibilité, reflétant une volonté de résidence de données et d’optimisation pour des charges sensibles à la latence.
Azure progresse de 40 % et mise sur Foundry et l’orchestration d’agents
Microsoft Azure conserve la deuxième position avec une part de 22 % du marché et une croissance annuelle de 40 %, illustrant la forte demande en entreprise pour l’Intelligence Artificielle. En octobre, Microsoft a renouvelé sa collaboration avec OpenAI, renforçant le développement et le déploiement sur Azure.
Le produit phare reste Azure AI Foundry, qui continue d’étendre son écosystème de modèles. Le rapport souligne la prise en charge de modèles de pointe comme Claude Opus 4.5, Claude Sonnet 4.5 et Haiku 4.5. Plus de 80 000 clients y accèdent à plus de 11 000 modèles, ce qui montre que la stratégie consiste à ne pas dépendre d’un seul fournisseur de modèles.
Un pas décisif vers la production concerne les agents. En octobre, Microsoft a présenté Microsoft Agent Framework, destiné à construire et orchestrer des systèmes multi-agents. Des cas d’usage, comme celui de KPMG, montrent comment de grandes sociétés de conseil tentent de transformer l’IA en avantage opérationnel, au-delà de la simple démonstration.
Azure poursuit aussi son expansion géographique ; Microsoft prévoit en novembre d’étendre sa région cloud en Malaisie et de lancer une nouvelle région de centres de données en Inde en 2026. Lorsque le marché évolue vers le déploiement en production, la localisation devient essentielle : souveraineté des données, latence et capacité locale prennent tout leur sens.
Google Cloud atteint 11 % et mise sur l’augmentation du backlog et la traction en IA entreprise
Google Cloud reste à la troisième place avec une part de 11 % et une croissance annuelle de 36 %. Selon le rapport, cette progression est notamment impulsée par son offre d’Intelligence Artificielle pour l’entreprise, avec des revenus trimestriels atteignant « plusieurs milliards de dollars » dans ce segment.
Le backlog affiche également une forte croissance : au 30 septembre, Google Cloud a enregistré 157,7 milliards de dollars US, contre 108,2 milliards de dollars US au trimestre précédent. En matière d’infrastructure, le backlog constitue souvent un indicateur plus fiable que le bruit hebdomadaire, en montrant les contrats signés et la demande engagée.
En produits, Google continue de développer Vertex AI Model Garden, en ajoutant de nouveaux modèles, notamment des variantes multimodales de Gemini 2.5, ainsi que Kimi K2 Thinking et DeepSeek-V3.2. En octobre 2025, la société a lancé Gemini Enterprise, une plateforme combinant la famille Gemini, des agents d’entreprise, des outils no-code et des fonctionnalités de sécurité et gouvernance, essentielles pour exploiter l’IA en production de manière fiable.
Du « benchmark » au « runbook » : exploiter les agents en réalité est plus complexe qu’on ne le pensait
La recherche met en avant une réalité que de nombreuses équipes ont déjà expérimentée : déployer des agents en production ne se limite pas à la capacité des modèles. Il manque encore des normes, des « blocs de construction » pour garantir continuité, expérience utilisateur cohérente et conformité. Ainsi, les hyperéchelleurs investissent massivement dans les capacités de « build and run », c’est-à-dire en outils pour construire, déployer et exploiter des agents de manière reproductible.
Parmi ces innovations, on cite AWS AgentCore et le Agent Framework de Microsoft, qui visent à rendre la gestion des agents plus maîtrisable : politiques, observabilité, contrôle des coûts et opérations cohérentes. Le changement s’affirme dans le vocabulaire : la phase de « test » doit laisser place à la phase d’exploitation.
Que recouvre la « infrastructure cloud » dans ces chiffres ?
Le rapport adopte une définition large des services d’infrastructure cloud, incluant bare metal en tant que service, IaaS, PaaS, conteneurs as-a-service et serverless. Ces services doivent être hébergés par des tiers et consommés via Internet. Cette distinction est importante, car elle place sous la même bannière des composants qui ont pour objectif commun une exécution efficace de charges critiques, avec élasticité, sécurité et un modèle opérationnel clair.
En résumé, le marché évolue parce que la demande n’est plus purement « aspirative » mais devient essentielle à l’exploitation : l’Intelligence Artificielle se comporte comme une charge d’entreprise exigeante en termes de calcul, de gestion des données et de gouvernance.
Questions fréquentes
Pourquoi le support multi-modèle devient-il une exigence pour le déploiement en production de l’Intelligence Artificielle ?
Parce que les entreprises recherchent résilience, maîtrise des coûts et flexibilité : pouvoir changer de modèle en fonction du prix, des performances, du respect des normes ou de la disponibilité minimise les risques opérationnels et leur dépendance à un seul fournisseur.
Que signifie la transition du marché cloud de « expérimentation » à « production » en 2025 ?
Cela indique que les investissements se tournent moins vers des pilotes et plus vers des déploiements stables, avec une gouvernance solide, une bonne observabilité, la continuité des activités, la sécurité et l’exploitation à grande échelle de modèles et applications génératives.
Qu’est-ce que le backlog des hyperéchelleurs et pourquoi sert-il d’indicateur de demande ?
Il s’agit de la liste des commandes déjà signées (contrats) ou de revenus futurs garantis. Une augmentation du backlog traduit une visibilité accrue sur la croissance et une demande soutenue, même si le trimestre présente des fluctuations passagères.
Quels services sont inclus dans la mesure de « l’infrastructure cloud » pour ce type de rapport ?
Il s’agit généralement d’un regroupement de bare metal en tant que service, IaaS, PaaS, services gérés de conteneurs (CaaS) et services serverless hébergés par des tiers et consommés via Internet.
via : omdia