Anthropic, avec l’énergie de Claude, utilise des TPU et vise 2027

Le Pentagone accélère l'« IA en production » : Claude, ChatGPT, Gemini et Grok rivalisent pour le cœur (et le contrôle) de la défense des États-Unis

Anthropic a dévoilé l’une des stratégies les plus majeures de l’année dans le domaine de l’infrastructure IA. La société a conclu un partenariat avec Google et Broadcom afin de garantir plusieurs gigawatts de capacité de TPUs nouvelle génération, une puissance de calcul qui commencera à être déployée à partir de 2027. Cette capacité sera dédiée à l’entraînement et au déploiement de futurs modèles Claude. Ce n’est pas une annonce anodine : dans un marché de plus en plus soumis à la disponibilité réelle des composants, de l’énergie et des centres de données, assurer la capacité à long terme devient aussi stratégique que le lancement d’un nouveau modèle.

L’annonce s’accompagne d’un autre chiffre qui permet d’éclairer l’urgence de cette démarche. Anthropic affirme que son run-rate revenue a déjà dépassé les 30 milliards de dollars, contre environ 9 milliards à la clôture de 2025. La société indique également compter plus de 1 000 clients entreprises dépensant plus d’un million de dollars par an en moyenne—le double des plus de 500 clients mentionnés en février dernier lors de la présentation de leur Série G. Il faut préciser que le run-rate est une projection annualisée basée sur l’activité actuelle, et ne correspond pas à des revenus déjà réalisés, mais cela témoigne néanmoins d’une accélération commerciale très significative.

La guerre ne porte plus uniquement sur les modèles, mais aussi sur les mégawatts

Au cours des deux dernières années, le discours public autour de l’IA s’est principalement concentré sur les benchmarks, le raisonnement, les agents et les fenêtres de contexte. Mais en dessous de cette couche productive se joue une autre bataille, bien plus physique : celle de l’approvisionnement. Entraîner et servir des modèles de pointe nécessite un accès fiable à des accélérateurs, des interconnexions haute performance, des systèmes de refroidissement, mais surtout une alimentation électrique stable. Lorsqu’Anthropic évoque plusieurs gigawatts, ce qu’il indique en réalité, c’est que le prochain tournant stratégique de Claude dépendra non seulement du logiciel, mais aussi de la réservation préalable d’une infrastructure énergétique et industrielle adaptée pour continuer à évoluer.

Ce mouvement est particulièrement stratégique car il diversifie le portefeuille matériel d’Anthropic. L’entreprise précise que Claude s’entraîne et s’exécute actuellement sur AWS Trainium, Google TPUs et GPU de NVIDIA, avec pour objectif d’attribuer chaque charge de travail au composant le plus approprié. En pratique, cela réduit la dépendance à une seule chaîne d’approvisionnement et offre à Anthropic une flexibilité rare à un moment où l’accès aux accélérateurs de nouvelle génération constitue l’un des principaux goulots d’étranglement du secteur.

Ce partenariat avec Google et Broadcom ne se traduit pas par une rupture avec Amazon. Anthropic affirme que AWS reste son principal fournisseur cloud et son principal partenaire d’entraînement, et qu’il poursuivra sa collaboration avec Amazon dans le cadre du Project Rainier. Ce que l’entreprise construit n’est pas une substitution, mais une architecture d’approvisionnement plus vaste : AWS en tant que partenaire central, TPUs de Google pour accroître l’échelle et la visibilité, NVIDIA pour une autre pièce essentielle du puzzle. D’un point de vue technique et opérationnel, cette mixité a beaucoup de sens : elle permet d’optimiser coûts, disponibilité et types de charges sans dépendre d’un seul fournisseur.

Claude consolide sa position multicloud

Un autre point clé de cette annonce dépasse la simple question des puces. Anthropic maintient que Claude demeure le seul modèle frontier disponible sur les trois principales plateformes cloud : Amazon Web Services, Google Cloud et Microsoft Azure. Au-delà de la dimension commerciale de l’expression frontier, il est documenté que Claude est accessible via Amazon Bedrock, que ses modèles sont disponibles comme modèles gérés sur Vertex AI, et que Microsoft Foundry intègre déjà des modèles Claude dans Azure. Cette présence simultanée sur les trois grandes infrastructures confère à Anthropic une position unique sur le marché professionnel.

Pour un observateur technique, ce point est probablement plus significatif que les chiffres financiers. Être officiellement présent sur Bedrock, Vertex AI et Foundry ne se limite pas à élargir la diffusion de Claude : cela facilite aussi l’adoption pour de grands comptes opérant sur différents environnements, qui souhaitent déployer le modèle dans leurs propres périmètres de conformité, réseaux privés, outils d’observabilité et processus internes. En somme, Anthropic ne vend pas simplement une IA, mais tente de s’imposer comme une couche d’interopérabilité au sein de l’infrastructure existante.

Google Cloud, par exemple, propose Claude sur Vertex AI en tant que service géré et serverless, sans besoin d’infrastructure spécifique pour accéder à l’API. AWS propose une démarche similaire sur Bedrock, positionnant Claude comme une famille de modèles pour le raisonnement, la vision, la génération de code et les flux d’entreprise. Microsoft, quant à lui, ne s’est pas arrêté à l’annonce initiale : la documentation d’utilisation des modèles Claude dans Foundry est déjà publiée, avec même des guides spécifiques pour configurer Claude Code sur leur infrastructure. Cela témoigne que la stratégie multicloud d’Anthropic ne se limite pas à une promesse marketing, mais s’incarne dans une intégration concrète.

Plus qu’une expansion, une réserve stratégique pour l’avenir

Ce qui donne tout son poids à cette annonce, c’est le calendrier. Anthropic ne conclut pas pour répondre uniquement à la demande immédiate de 2026, mais pour réserver une capacité future à partir de 2027. Ce détail change totalement la perspective : l’entreprise ne souhaite pas simplement faire évoluer Claude avec les stocks disponibles, mais se prémunir pour la prochaine phase du marché où des modèles plus avancés et des agents plus complexes exigeront davantage de puissance d’inférence, d’entraînement et d’élasticité infrastructurelle.

Anthropic présente d’ailleurs cet accord comme son engagement en matière de calcul le plus important à ce jour. Elle souligne également que la majorité de cette nouvelle capacité sera installée aux États-Unis, en lien avec son engagement annoncé en novembre 2025 d’investir 50 milliards de dollars dans l’infrastructure informatique américaine. En pratique, cela positionne la société non seulement comme un développeur de modèles, mais aussi comme un acteur engagé dans la planification industrielle à grande échelle.

Dit plus sobrement, il s’agit aussi d’une manœuvre défensive. La course à la frontière IA devient de plus en plus dépendante de contrats longue durée, d’intégration verticale et de contrôle de la capacité. Qu’on arrive tard dans la répartition de l’énergie, du silicium ou de l’espace dans les centres de données, il sera difficile de suivre le rythme, même avec un bon modèle. Anthropic semble avoir décidé de ne pas repousser cette problématique à plus tard, mais de la régler dès maintenant. L’enjeu principal : moins de gesticulations et une stratégie d’infrastructure renforcée.

Alors que beaucoup de secteurs continuent de mesurer la course IA à travers des lancements, des démonstrations et des comparatifs, Anthropic rappelle une réalité bien plus brutale : la prochaine génération de modèles ne se décidera pas uniquement en laboratoire, mais aussi à travers l’approvisionnement en énergie, la fabrication de puces et la planification sur le territoire gigavolt. Claude maintiendra sa compétition sur la qualité des modèles, mais cet accord montre clairement qu’Anthropic ambitionne aussi de jouer dans la couche la plus difficile à reproduire : l’infrastructure.

Questions fréquentes

Que signifie qu’Anthropic ait réservé “plusieurs gigawatts” de capacité TPU ?
Cela indique qu’elle a réservé une quantité importante d’infrastructures de calcul basées sur des TPUs de nouvelle génération, exprimée par la puissance électrique associée à leur déploiement. C’est une façon de refléter l’échelle industrielle du partenariat, pas simplement le nombre de puces.

Anthropic a-t-elle déjà généré 30 milliards de dollars ?
Pas exactement. La société parle de run-rate revenue, c’est-à-dire de revenus annualisés à partir du rythme d’activité actuel. Il s’agit d’un indicateur d’échelle commerciale, mais pas d’un chiffre de chiffre d’affaires réalisé sur une année complète.

Claude est-il réellement disponible sur AWS, Google Cloud et Azure ?
Oui. Amazon documente Claude dans Bedrock, Google le propose dans Vertex AI, et Microsoft l’intègre dans Foundry. Cette présence officielle sur les trois principales plateformes cloud est une stratégie clé d’Anthropic.

Pourquoi cet accord est-il si important pour l’avenir de Claude ?
Parce qu’il garantit une capacité de calcul pour 2027 et au-delà, à un moment où l’accès aux composants, à l’énergie et aux centres de données est un des principaux leviers pour le développement des modèles de pointe. Sans infrastructure assurée, faire évoluer une IA avancée devient beaucoup plus difficile.

le dernier