Anthropic vient de signer un accord avec SpaceX pour louer l’intégralité de la capacité du centre de calcul Colossus 1 à Memphis, Tennessee. Résultat concret : plus de 220 000 GPU NVIDIA (H100, H200 et GB200) et 300 MW de puissance électrique disponibles en moins d’un mois. Pour les utilisateurs de Claude Code et les clients API, les limites changent dès maintenant.
Ce deal confirme que la concurrence entre laboratoires d’IA se joue autant sur l’infrastructure que sur la qualité des modèles. La pression croissante sur l’inférence crée une demande que les grands clouds peinent à absorber seuls, et Anthropic a décidé de ne pas attendre.
Claude Code : des limites doublées dès maintenant
Anthropic annonce trois changements opérationnels immédiats pour ses clients les plus intensifs. Les plans Pro, Max, Team et Enterprise voient les limites de Claude Code doublées sur les fenêtres de cinq heures, par utilisateur. La réduction des limites en heures de pointe, qui agaçait les développeurs en pleine session, disparaît pour les plans Pro et Max. Les plafonds API des modèles Claude Opus augmentent aussi fortement.
Les chiffres sont concrets. En Tier 1, les tokens entrants par minute passent de 30 000 à 500 000, les tokens sortants de 8 000 à 80 000. En Tier 2, l’entrée grimpe de 450 000 à 2 millions de tokens par minute, et la sortie de 90 000 à 200 000. En Tier 3, l’entrée passe de 800 000 à 5 millions de tokens par minute. En Tier 4, le plafond entrant atteint 10 millions de tokens par minute — contre 2 millions auparavant — et la sortie monte à 800 000.
Pour un développeur en plan Max, doubler les fenêtres de cinq heures change la pratique quotidienne. Pour une équipe de dix personnes en plan Team qui utilisent Claude Code en parallèle sur des bases de code volumineuses, l’effet est multiplicateur : moins d’interruptions, moins de reprises de contexte, moins de temps à attendre la réinitialisation des quotas avant de relancer une tâche longue.
Ces volumes parlent aux équipes qui utilisent des agents en production. Un agent de développement ne fait pas une seule requête : il lit des fichiers, propose des modifications, corrige des erreurs, relit le contexte, génère des réponses longues. Chaque cycle consomme des centaines de milliers de tokens. Quand l’agent coupe à mi-session parce qu’un plafond est atteint, la session devient inutilisable. C’est ce point de friction qu’Anthropic cherche à effacer, surtout à l’heure où Claude Code gagne du terrain auprès des profils techniques.
220 000 GPU NVIDIA et 300 MW à Memphis
SpaceX n’est pas une société cloud. Ses activités principales sont les lanceurs, les satellites Starlink et les infrastructures de connectivité. Le voir entrer comme fournisseur d’infrastructure pour un laboratoire d’IA de premier plan indique que les actifs GPU ont désormais une valeur stratégique bien au-delà du monde cloud traditionnel.
Le centre Colossus 1, situé à Memphis, Tennessee, a été construit par xAI — la filiale IA d’Elon Musk — avant d’être mis à disposition de tiers. Avec 300 MW et plus de 220 000 processeurs NVIDIA (H100, H200, GB200), c’est une des installations les plus denses en GPU au monde. Anthropic l’exploite pour absorber la croissance de la demande sur Claude Pro, Claude Max, Claude Code et l’API.
Anthropic ne dépend pas d’une seule source de calcul. La société entraîne et exploite Claude sur AWS Trainium, Google TPU et GPU NVIDIA. Cette diversification réduit l’exposition aux priorités commerciales d’un fournisseur unique, un risque réel sur un marché où les GPU restent sous tension et où tout partenaire peut revoir ses allocations.
La course se mesure désormais en gigawatts
Cet accord avec SpaceX fait partie d’une série de contrats massifs en capacité de calcul. Anthropic a signé avec Amazon pour jusqu’à 5 GW de capacité, avec près de 1 GW prévu d’ici fin 2026. Un autre accord de 5 GW avec Google et Broadcom entrera en service à partir de 2027. Une alliance avec Microsoft et NVIDIA porte sur 30 milliards de dollars d’infrastructure Azure, et un investissement de 50 milliards de dollars dans l’infrastructure IA américaine est prévu en partenariat avec Fluidstack.
Il y a cinq ans, un datacenter de 50 MW passait pour une installation costaude. Ces accords en gigawatts montrent que l’inférence à grande échelle impose une infrastructure que peu d’acteurs peuvent financer seuls. La tendance affecte l’électricité, la construction de nouveaux sites, les autorisations réglementaires, la gestion des transformateurs et le refroidissement dans des zones entières.
La consommation liée à l’inférence devient un sujet de plus en plus sensible. Servir des modèles à des millions d’utilisateurs et d’agents demande une infrastructure lourde. Lorsque ces agents exécutent des tâches longues, maintiennent le contexte et consultent des outils, le coût opérationnel s’emballe. La hausse des limites de Claude est une bonne nouvelle pour les utilisateurs, mais elle confirme aussi que l’usage réel de l’IA croît à un rythme qui exige plus d’infrastructure chaque trimestre.
Les projets alternatifs se multiplient. Panthalassa, startup basée en Oregon soutenue par Peter Thiel, construit des nœuds flottants pour exécuter le calcul IA en mer, loin des contraintes foncières et thermiques terrestres. La compétition pour les mégawatts pousse les investisseurs vers des architectures non conventionnelles.
Google investit de son côté 15 milliards de dollars dans un centre IA en Inde, confirmant que la course aux infrastructures est mondiale. Pour Anthropic, sécuriser de la capacité aux États-Unis et en Europe avant que les prix grimpent est une décision cohérente à court terme.
Sur la question de l’énergie, Anthropic s’engage à couvrir toute hausse du prix de l’électricité causée par ses datacenters aux États-Unis, et envisage d’étendre cet engagement à d’autres pays. Ce type de garantie deviendra de plus en plus attendu à mesure que la pression sur les réseaux locaux augmente.
Quant à la piste spatiale — Anthropic mentionne des travaux avec SpaceX sur de la capacité IA en orbite — elle reste exploratoire. Déployer du calcul sur satellite soulève des défis sérieux : coûts, maintenance, radiations, refroidissement et renouvellement du matériel. Sa mention signale des recherches en cours, pas un projet opérationnel.
Infrastructures régionales pour les entreprises réglementées
Les banques, assureurs, hôpitaux et organismes publics ne peuvent pas envoyer leurs données sensibles n’importe où. Leur adoption de Claude dépend de la capacité d’Anthropic à proposer des environnements régionaux conformes aux exigences locales de résidence des données et de conformité réglementaire.
Anthropic indique que la collaboration avec Amazon inclut une capacité d’inférence supplémentaire en Asie et en Europe pour ce type de client. IBM a structuré une offre similaire face au même besoin : IBM Sovereign Core cible précisément les entreprises réglementées qui ont besoin d’une IA souveraine.
Anthropic précise qu’elle sera sélective sur les pays où elle déploiera de nouvelles capacités, en privilégiant ceux qui disposent de cadres juridiques solides et de chaînes d’approvisionnement fiables. Infrastructure, souveraineté et géopolitique convergent ici sur le même sujet. Pour les utilisateurs, la conséquence immédiate est simple : Claude Code et l’API Opus seront moins contraints. Pour l’industrie, ce deal confirme que l’accès à la puissance de calcul est devenu aussi stratégique que la qualité du modèle lui-même.
Questions fréquentes
Que couvre l’accord entre Anthropic et SpaceX ?
Anthropic loue l’intégralité de la capacité du datacenter Colossus 1 à Memphis : plus de 220 000 GPU NVIDIA (H100, H200, GB200) et 300 MW de puissance électrique, disponibles dans un délai d’un mois.
Qu’est-ce que ça change pour les utilisateurs de Claude Code ?
Les plans Pro, Max, Team et Enterprise voient leurs limites doublées sur les fenêtres de cinq heures par utilisateur. La réduction en heures de pointe est supprimée pour les plans Pro et Max.
Quels sont les nouveaux plafonds de l’API Claude Opus ?
En Tier 4, les tokens entrants passent de 2 millions à 10 millions par minute, les tokens sortants de 400 000 à 800 000. En Tier 1, les entrants montent de 30 000 à 500 000 tokens/min.
Pourquoi Anthropic diversifie-t-il ses sources de GPU ?
Pour réduire l’exposition à un fournisseur unique. La société utilise AWS Trainium, Google TPU et GPU NVIDIA. Une dépendance exclusive crée un risque si les priorités commerciales du partenaire changent ou si la disponibilité se resserre.
Quelle est la dimension géopolitique de ces investissements ?
Le déploiement régional répond aux exigences de résidence des données dans les secteurs réglementés (banque, santé, secteur public). Anthropic annonce une sélectivité sur les pays où elle installe de nouvelles capacités, en tenant compte des cadres juridiques et des chaînes d’approvisionnement locales.
La capacité IA en orbite est-elle réaliste à court terme ?
Non. Anthropic mentionne des recherches avec SpaceX sur ce sujet, mais les défis sont nombreux : coûts élevés, radiations, refroidissement, communications et renouvellement du matériel. C’est une piste exploratoire, pas une feuille de route opérationnelle.
Source : Noticias inteligencia artificial