Les géants du cloud renforcent leur position avec des puces propriétaires et une expansion mondiale
Le marché mondial des services d’infrastructure cloud a atteint 90,9 milliards de dollars au premier trimestre 2025, enregistrant une croissance de 21 % par rapport à l’année précédente, selon les dernières données de Canalys, désormais partie intégrante d’Omdia. Cette augmentation s’explique par l’adoption massive des applications d’intelligence artificielle (IA), faisant du cloud un élément stratégique pour les entreprises de tous secteurs.
L’essor de l’IA générative redéfinit les priorités technologiques des organisations qui accélèrent leur migration vers le cloud et se concentrent sur l’optimisation des coûts d’inférence, une phase critique d’exécution des modèles d’IA. Face à cette demande croissante, les fournisseurs de cloud investissent massivement dans des infrastructures optimisées, y compris des puces propriétaires et des services spécialisés.
Le leadership des géants du cloud reste incontesté
Le trio de tête du marché demeure inchangé. Amazon Web Services (AWS), Microsoft Azure et Google Cloud représentent 65 % des dépenses mondiales, avec une croissance conjointe de 24 % par rapport à la même période en 2024. Cependant, la dynamique de croissance varie :
-
Microsoft Azure a enregistré une croissance de 33 %, atteignant 23 % de part de marché. Sa plateforme Azure AI Foundry, utilisée par plus de 70 000 entreprises, a traité plus de 100 millions de milliards de tokens. Microsoft a également amélioré de 30 % l’efficacité énergétique de ses solutions d’IA tout en réduisant de plus de 50 % le coût par token.
-
Google Cloud a maintenu une part de marché de 10 % avec une croissance de 31 %, malgré des contraintes de capacité. Son modèle Gemini 2.5 Pro a dominé les benchmarks dans les environnements génératifs, et l’adoption de son API Gemini et de Google AI Studio a augmenté de plus de 200 % depuis janvier.
- AWS, bien qu’en tête avec 32 % de part de marché, a vu son taux de croissance ralentir à 17 % en raison de limitations d’approvisionnement. Pour rivaliser avec NVIDIA, Amazon a renforcé son offre avec le chip Trainium 2, offrant une amélioration de 30 à 40 % en rapport coût-performance, et a prévu une investissement de 4 milliards de dollars pour ouvrir une nouvelle région cloud au Chili en 2026.
L’IA, moteur économique et défi
Le rapport souligne que la transition de l’IA des recherches vers des déploiements d’entreprise à grande échelle accentue l’importance des coûts d’inférence, plus cruciaux que ceux liés à l’entraînement initial. "Contrairement à l’entraînement, qui est un investissement unique, l’inférence représente un coût opérationnel récurrent", explique Rachel Brindley, directrice senior de Canalys.
De plus, de nombreux services d’IA fonctionnent selon des modèles de paiement à l’usage (par tokens ou appels API), rendant la prévision des coûts complexe à mesure que l’utilisation augmente. "Cela oblige les entreprises à limiter la complexité des modèles ou à restreindre leur utilisation à des cas à forte valeur ajoutée," ajoute Yi Zhang, analyste chez Canalys.
La réponse : puces propriétaires et efficacité
Pour relever ces défis, les hyperscalers misent sur des puces conçues spécifiquement pour l’IA, comme le Trainium (AWS) et le TPU (Google). Ces accélérateurs, associés à de nouvelles familles d’instances cloud, visent à réduire les coûts totaux et à améliorer l’efficacité énergétique.
Parallèlement, l’expansion des centres de données se poursuit à un rythme soutenu. Microsoft a ouvert de nouvelles installations dans 10 pays rien qu’au premier trimestre, tandis que Google a ajouté sa 42ème région cloud en Suède et prévoit d’investir 7 milliards de dollars dans son centre de données dans l’Iowa.
Conclusion
Le premier trimestre de 2025 démontre que le cloud n’est plus simplement une plateforme de calcul, mais une infrastructure essentielle pour l’ère de l’intelligence artificielle. Les dépenses mondiales continuent d’augmenter, alimentées par l’urgence des entreprises à moderniser leurs opérations et à ne pas se laisser distancer dans la course technologique. À mesure que les modèles d’IA deviennent plus complexes, la concurrence pour l’efficacité de l’inférence s’annonce tout aussi cruciale que celle pour la capacité de calcul. Les géants du cloud sont d’ores et déjà mobilisés.
Source : canalys