Google entre en pourparlers avec SpaceX et d’autres fournisseurs potentiels de lancements pour faire progresser le Project Suncatcher, leur initiative de recherche visant à déployer des infrastructures d’intelligence artificielle en orbite. Les informations, relayées initialement par The Wall Street Journal et ensuite par Reuters et TechCrunch, placent Elon Musk et sa société comme candidats naturels pour mettre en orbite les premiers prototypes de cette expérience : des satellites alimentés par énergie solaire et équipés de puces TPU de Google.
Cette actualité s’inscrit dans une tendance qui, il y a quelques années, semblait presque absurde, mais qui commence désormais à être prise au sérieux : la construction de centres de données dans l’espace. La pression énergétique liée à l’IA, le manque de terrains disponibles, la rareté de l’électricité dans des régions clés, et le rejet social des nouveaux campus de data centers poussent Google, SpaceX, NVIDIA, Starcloud et Anthropic à explorer une idée extrême : délocaliser une partie du traitement des données hors de la Terre.
Project Suncatcher : TPUs, satellites et énergie solaire quasi continue
Google a présenté le Project Suncatcher en novembre 2025 comme une initiative de recherche « moonshot ». Sa vision consiste à créer des constellations compactes de satellites alimentés par énergie solaire, équipés de TPUs et reliés entre eux par des liens optiques en espace libre. L’objectif initial n’est pas de construire immédiatement un hyperscaler orbital, mais de valider si le matériel d’IA peut fonctionner de manière fiable en orbite, communiquer avec une faible latence relative entre satellites, et exploiter l’énergie solaire de façon plus continue que sur Terre.
La prochaine étape prévue par Google est une mission conjointe avec Planet pour lancer deux satellites prototypes début 2027. Selon la conception décrite par Google Research, le concept à long terme envisage des grappes de satellites volant en formation rapprochée, avec des TPUs à bord et des liens optiques entre eux. Le document associé à Suncatcher illustre un cluster potentiel de 81 satellites dans un rayon d’un kilomètre, mais il s’agit encore de recherches, et non d’un produit cloud commercial prêt à l’emploi.
Une collaboration avec SpaceX aurait une logique évidente. SpaceX domine une grande part du marché des lancements commerciaux, possède une expérience opérationnelle avec des constellations telles que Starlink et dispose d’une cadence de lancements que peu de concurrents peuvent égaler. Reuters souligne également que le développement de centres de données orbitaux pourrait devenir une des grandes narratives technologiques entourant une éventuelle entrée en bourse de SpaceX, un projet nécessitant d’énormes investissements et une réduction drastique du coût de lancement.
Ce n’est pas que Google : NVIDIA, Starcloud, SpaceX et Anthropic regardent vers le haut
La fièvre des centres de données spatiaux ne se limite pas à Google. NVIDIA a lancé en mars 2026 son initiative « space computing », avec des plateformes comme Space-1 Vera Rubin, IGX Thor et Jetson Orin, pour apporter de la puissance de calcul accélérée aux missions spatiales, satellites, véhicules en orbite et futurs systèmes d’analyse en orbite. Parmi les partenaires figurent Aetherflux, Axiom Space, Kepler Communications, Planet, Sophia Space et Starcloud.
Starcloud est l’un des noms les plus ambitieux. La startup, intégrée au programme NVIDIA Inception, envisage des centres de données orbitales spécifiquement conçus pour exécuter le cloud et l’IA dans l’espace. NVIDIA a indiqué que Starcloud projette un centre de données orbital de 5 GW, avec de grands panneaux solaires et des systèmes de refroidissement couvrant environ 4 kilomètres de long et de large. La société affirme que l’espace permettrait de réduire les coûts énergétiques et d’éviter la consommation d’eau de nombreux systèmes de refroidissement terrestres, sous réserve que les coûts de lancement et de maintenance diminuent suffisamment.
SpaceX agit également d’un point de vue différent. La division SpaceXAI a annoncé un accord avec Anthropic pour donner accès à Colossus 1, un superordinateur doté de plus de 220 000 GPU NVIDIA, notamment H100, H200 et GB200. Dans ce même communiqué, Anthropic a exprimé son intérêt à collaborer pour développer plusieurs gigawatts de capacité de calcul orbital. Si cette déclaration ne garantit pas la réalisation immédiate du projet, elle montre que l’idée a dépassé la science-fiction pour devenir un sujet de stratégie entre entreprises de l’IA.
La raison fondamentale est simple : l’IA atteint des limites physiques. Les nouveaux modèles nécessitent plus de puces, plus d’énergie, plus de refroidissement et davantage de centres de données. Sur Terre, cela implique de négocier avec les fournisseurs d’énergie, d’acheter des terrains, d’obtenir des permis, de gérer la consommation d’eau, de renforcer le réseau électrique et de faire face à des communautés locales réticentes à l’implantation de nouveaux data centers. En orbite, le Soleil offre une source d’énergie abondante et quasi continue dans certaines trajectoires, mais d’autres défis apparaissent.
La partie difficile : lancer, refroidir, réparer et connecter
Le principal obstacle demeure économique : mettre du matériel en orbite reste coûteux, même avec des fusées réutilisables. De plus, un centre de données ne se résume pas à un simple rack de puces : il nécessite une structure, de l’énergie, des radiateurs, des systèmes de communication, une protection contre la radiation, un contrôle thermique, de la redondance, des opérations de maintenance et une stratégie pour limiter l’accumulation de débris spatiaux en fin de vie.
Il faut aussi relativiser l’idée selon laquelle « l’espace refroidit gratuitement ». En vide, pas d’air pour évacuer la chaleur par convection. La dissipation thermique doit donc se faire par radiation, ce qui requiert de grandes surfaces radiantes et des designs thermiques très élaborés. Plus la densité de calcul est élevée, plus la gestion thermique devient compliquée. Sur Terre, la climatisation consomme de l’eau et de l’énergie ; en orbite, cela impose de concevoir des structures légères, déployables et très fiables.
La connectivité représente également un enjeu crucial. Pour qu’un centre de données orbital soit utile pour l’IA terrestre, il doit assurer un transfert massif de données entre satellites et stations au sol. Les liens optiques offrent un haut débit, mais demandent une précision, un alignement, une disponibilité et une gestion de constellation complexes. Pour des applications comme l’observation de la Terre, l’analyse des données en orbite ou l’inférence locale dans les satellites, cela a du sens. Pour remplacer un data center terrestre interactif, l’exigence est beaucoup plus grande.
Il ne faut pas non plus négliger les risques environnementaux et réglementaires. L’ajout de milliers de nouveaux satellites augmenterait la congestion orbitale, compliquant l’observation astronomique et nécessitant des normes plus strictes en matière de coordination, de désorbitation et de responsabilité. Si l’industrie cherche à résoudre un problème environnemental terrestre en en créant un autre en orbite, l’acceptation publique en serait difficile.
La lecture la plus prudente est que les centres de données spatiaux ne remplaceront pas ceux sur Terre dans un avenir proche. La première phase sera probablement centrée sur le traitement en orbite, l’analyse d’images satellitaires, la défense, la météorologie, les communications, la navigation autonome et des workloads IA moins sensibles à la latence. Par la suite, si le coût par kilogramme baisse suffisamment et si des systèmes de lancement comme Starship atteignent leurs promesses, des grappes plus ambitieuses pourraient voir le jour.
Pour autant, le mouvement initié par Google modifie le ton du débat. Lorsqu’une société aussi expérimentée que Google dans la fabrication de puces, le cloud, les réseaux, l’IA et des projets à long terme décide de tester des TPUs en orbite, l’idée cesse d’être une simple fantaisie de futuristes. Et lorsque SpaceX, NVIDIA, Starcloud et Anthropic participent à des discussions similaires, il devient clair que l’infrastructure d’IA cherche de nouvelles frontières, car celles terrestres commencent à saturer.
La question n’est plus de savoir si quelqu’un déploiera des serveurs IA dans l’espace : cela est déjà en marche à petite échelle. La vraie question est de savoir si une infrastructure compétitive, sûre, maintenable et économiquement viable pourra émerger. C’est sur ce terrain que se décidera si la mode des data centers orbitaux restera une démonstration spectaculaire ou si elle deviendra une nouvelle couche de l’écosystème cloud mondial.
Questions fréquentes
Qu’est-ce que le Project Suncatcher ?
Le Project Suncatcher est une initiative de recherche de Google visant à étudier la faisabilité du déploiement de calcul IA dans l’espace via des satellites alimentés par énergie solaire, équipés de TPUs et connectés par des liens optiques.
Pourquoi Google dialogue-t-il avec SpaceX ?
Selon Reuters et d’autres médias, Google discute avec SpaceX et d’autres fournisseurs de lancement en vue de futures missions liées au Project Suncatcher. SpaceX possède un avantage grâce à ses lancements fréquents et à sa gestion de constellations.
Quelles autres sociétés travaillent sur des centres de données spatiaux ?
NVIDIA développe des plateformes de calcul spatial avec des partenaires tels que Starcloud, Planet, Axiom Space et Kepler. SpaceXAI et Anthropic ont également exprimé leur intérêt pour la capacité de calcul orbital de plusieurs gigawatts.
Les centres de données dans l’espace remplaceront-ils ceux terrestres ?
Pas à court terme. Leur usage sera d’abord réservé à des applications très spécifiques telles que le traitement de données en orbite, l’observation terrestre ou l’inférence locale dans les satellites. Les grands centres de calcul orbital IA doivent encore résoudre les enjeux liés au coût, au refroidissement, à la maintenance, aux communications et à la réglementation.