La prochaine grande frontière des centres de données pour l’Intelligence Artificielle pourrait ne pas se situer dans une zone industrielle, à proximité d’une sous-station électrique ou d’une station d’eau. Elle pourrait être en orbite. Cette idée peut sembler de la science-fiction, mais elle occupe déjà les esprits de NVIDIA, Google, SpaceX, Starcloud et plusieurs autres sociétés spatiales qui s’intéressent à la possibilité de déporter une partie du traitement de l’IA hors de la Terre.
Le principe est simple à énoncer et très difficile à réaliser : face aux limites d’énergie, de terrain, de refroidissement, aux exigences réglementaires et au rejet social des centres de données terrestres, l’espace offre un ensoleillement quasi continu ainsi qu’un emplacement où la chaleur peut être dissipée par rayonnement. Sur le papier, cela permettrait d’alimenter de vastes grappes d’IA sans concurrencer directement les réseaux électriques locaux ni consommer d’eau pour le refroidissement. En pratique, de nombreux obstacles techniques, économiques et réglementaires doivent encore être surmontés.
Le dernier mouvement ayant ravivé ce débat est la stratégie spatiale de NVIDIA. La société a présenté ses plateformes de calcul pour l’orbite, notamment le module Space-1 Vera Rubin, conçu pour des charges de travail d’IA dans les satellites, l’analyse géospatiale, les opérations autonomes et de futurs centres de données en orbite. Selon NVIDIA, ce module pourrait offrir jusqu’à 25 fois plus de capacité de traitement d’IA qu’un H100 pour des charges d’inférence spatiale, bien que sa disponibilité commerciale ne soit pas prévu avant plus tard.
De l’analyse d’images par satellites à la conception de centres de données orbitaux
La computation dans l’espace n’est pas nouvelle. Depuis des décennies, les satellites traitent à bord des données pour les communications, l’observation terrestre, la navigation ou la défense. Ce qui est nouveau, c’est l’ambition d’amener du matériel de classe centre de données en orbite, non pas uniquement pour réduire la volume de données à transmettre vers la Terre, mais pour exécuter des charges d’IA beaucoup plus exigeantes.
NVIDIA a annoncé des collaborations avec Aetherflux, Axiom Space, Kepler Communications, Planet Labs, Sophia Space et Starcloud pour apporter l’accélération de l’IA aux missions orbitales et aux systèmes terrestres associés. Certaines de ces initiatives visent à contrôler en temps réel des données issues de capteurs. D’autres projets vont plus loin : construire une infrastructure de calcul en orbite pour entraîner ou exécuter des modèles avancés, sans dépendre entièrement des centres de données terrestres.
Starcloud est l’exemple le plus marquant. La start-up, soutenue par le programme NVIDIA Inception, a lancé en novembre 2025 le satellite Starcloud-1 équipé d’une GPU NVIDIA H100. Selon l’entreprise, ce système a permis d’exécuter des modèles en orbite et d’entraîner un nanoGPT dans l’espace — une démonstration plutôt symbolique que commerciale, mais cruciale pour valider que du matériel haute performance peut survivre et fonctionner hors de la Terre.
La vision à long terme de Starcloud est encore plus ambitieuse : un centre de données orbital de 5 GW alimenté par de grands panneaux solaires, s’étendant sur environ 4 kilomètres de côté. Leur argument est que l’énergie solaire en orbite pourrait être plus constante que celle disponible à la surface de la Terre, et que le coût énergétique pourrait être considérablement inférieur à celui d’une installation équivalente au sol. C’est une promesse puissante, mais qui en est encore à ses balbutiements pour une réalisation industrielle concrète.
La concurrence se tourne également vers le ciel
NVIDIA n’est pas seule dans cette course. Google a lancé le Project Suncatcher, une initiative de recherche visant à étudier des constellations de satellites équipés de TPUs alimentés par l’énergie solaire et reliés par des liens optiques dans l’espace. La société prévoit de déployer deux satellites prototypes avec Planet Labs début 2027 pour tester leur hardware en orbite et valider certains aspects techniques.
Le projet de Google repose sur une idée similaire : dans certaines orbites, les panneaux solaires peuvent générer de l’énergie pendant des périodes beaucoup plus longues et avec moins d’interruptions qu’au sol. La société a également testé la résistance de ses TPUs aux conditions de radiation simulées, tout en reconnaissant qu’il reste des défis à relever en gestion thermique, fiabilité, communication, dynamique orbitale et coûts de lancement.
SpaceX joue aussi un rôle central. La société d’Elon Musk a annoncé un accord permettant à Anthropic d’accéder à Colossus 1, son superordinateur d’IA, et a indiqué que cette entreprise serait intéressée par une capacité de calcul orbital de plusieurs gigawatts. Reuters a également rapporté des discussions entre Google et SpaceX pour de futurs lancements liés au projet Suncatcher.
Ce contexte marque l’émergence d’un nouveau front dans la course à l’infrastructure de l’IA. Jusqu’ici, le débat portait essentiellement sur les GPU, ASIC, TPU, réseaux, HBM, centres de données, énergie nucléaire, accords avec les fournisseurs d’électricité et la capacité pour répondre à la demande. Désormais, un autre critère apparaît : qui sera capable de lancer, maintenir et connecter l’infrastructure de calcul hors de la planète ?
L’obstacle principal ne se limite pas au lancement des composants dans l’espace
Il faut tempérer l’aspect épique de l’idée. L’espace offre effectivement certains avantages, mais ce n’est pas un centre de données gratuit avec vue sur la globe. La refroidissement, par exemple, ne fonctionne pas comme dans une salle technique terrestre. En vide, il n’y a pas d’air pour transporter la chaleur par convection. La dissipation doit se faire par rayonnement, ce qui nécessite des surfaces, matériaux et conceptions thermiques très spécifiques. Plus le cluster est puissant, plus il devient complexe de gérer la dissipation thermique.
Le problème de la maintenance est également crucial. Sur Terre, un technicien peut remplacer un serveur, changer une alimentation ou inspecter une connexion. En orbite, chaque défaillance coûte beaucoup plus cher. La radiation peut dégrader les composants, les impacts de micrométéorites ou de débris spatiaux constituent un risque sérieux, et la logistique de maintenance n’a pas encore l’équivalent de celle d’une installation conventionnelle.
La connectivité est un autre défi majeur. Pour qu’un centre de données orbital soit utile pour traiter des données terrestres, il doit faire transiter d’énormes volumes entre satellites et stations au sol. Les liens optiques peuvent offrir un très large débit, mais maintenir un réseau d’orbites aligné, avec une faible latence relative et une capacité stable, représente une tâche d’ingénierie très exigeante. Pour certaines charges d’IA, comme l’entraînement par lots ou l’analyse de données capturées en orbite, la latence peut être acceptable. En revanche, pour des services interactifs massifs, la viabilité économique et architecturale reste à démontrer.
Enfin, il ne faut pas ignorer l’impact environnemental lié aux lancements et à la possible prolifération des constellations. Déplacer des milliers de tonnes de matériel vers l’orbite nécessite des fusées, du carburant, de la fabrication, des matériaux et une gestion en fin de vie des satellites. Les astronomes alertent depuis des années sur l’impact de ces mégaconstellations sur l’observation du ciel et la congestion orbitale. Délocaliser des centres de données dans l’espace pourrait alléger la pression sur les réseaux électriques terrestres, mais transférerait en contrepartie une partie du problème à un environnement fragile et déjà encombré.
Une véritable indication de la pression que subit l’IA
Il ne s’agit peut-être pas seulement de déployer massivement des centres de données dans l’espace dans les années à venir. La véritable tendance à l’œuvre est celle d’une industrie de l’IA qui atteint un niveau de consommation énergétique qui oblige à envisager des solutions extrêmes. Microsoft conclut des accords nucléaires, Amazon et Google négocient de l’énergie à long terme, Oracle et OpenAI projettent de gigantesques campus, et NVIDIA, Starcloud, Google et SpaceX explorent la voie orbitale comme option future.
Pour les fournisseurs d’infrastructure, le message est clair : le problème principal ne se limite plus à la fabrication des puces. Il concerne aussi leur alimentation, leur refroidissement, leur connexion et l’obtention des permis nécessaires à leur installation. C’est pourquoi la computation dans l’espace commence à apparaître dans les présentations, feuilles de route et projets pilotes. Pas comme substitut immédiat aux centres de données terrestres, mais comme une extension potentielle pour des charges spécifiques.
À court terme, il est plus probable que l’on voit davantage d’IA dans des satellites pour l’analyse d’images, la navigation autonome, la défense, les communications et le traitement de données en orbite. Cela a déjà une certaine pertinence opérationnelle : si un satellite peut analyser ce qu’il voit sans tout transmettre vers la Terre, il réduit le volume de données et accélère le traitement. La conception de centres de données orbitaux de plusieurs gigawatts reste encore largement à l’état de projet spéculatif.
NVIDIA, Google, Starcloud et SpaceX repoussent cette frontière car le marché valorise ceux qui contrôlent l’infrastructure. Si l’IA exige une puissance de calcul croissante, l’avantage ne résidera pas uniquement dans le meilleur modèle, mais aussi dans le meilleur accès à l’énergie, aux puces, aux réseaux et à la localisation. L’espace ne supprime pas les problématiques de l’IA industrielle, il les déplace et en introduit de nouvelles.
La question n’est plus de savoir si l’on pourra placer une GPU puissante en orbite. Cela a commencé à être testé. La véritable question est : cette infrastructure pourra-t-elle devenir fiable, rentable, maintenable et socialement acceptable ? Jusqu’à ce que cette réponse soit apportée, les centres de données spatiaux resteront un mélange d’ingénierie sérieuse, d’ambition entrepreneuriale et de récit futuriste.
Questions fréquentes
Qu’est-ce qu’un centre de données orbital ?
C’est une installation informatique située dans l’espace, généralement dans des satellites ou des structures orbitales, conçue pour traiter des données ou exécuter des charges d’Intelligence Artificielle en utilisant l’énergie solaire et des communications optiques ou radiofréquences.
Pourquoi les entreprises souhaitent-elles porter l’IA dans l’espace ?
Parce que les centres de données terrestres consomment beaucoup d’électricité, nécessitent un refroidissement, ont besoin de terrain et dépendent de réseaux électriques de plus en plus sollicités. En orbite, l’énergie solaire continue est plus accessible, même si les défis techniques sont importants.
Qu’a présenté NVIDIA pour la computation spatiale ?
NVIDIA a lancé des plateformes comme Space-1 Vera Rubin, IGX Thor et Jetson Orin pour des charges d’IA en orbite, l’analyse géospatiale, les opérations autonomes et de futurs centres de données orbitaux.
Voyons-nous apparaître bientôt de grands centres de données dans l’espace ?
Pas dans l’immédiat. Des tests avec du matériel avancé en orbite et des projets pilotes sont en cours ou prévus, mais la construction de centres de données orbitaux de plusieurs gigawatts exige de résoudre de nombreux défis liés au lancement, à la maintenance, au refroidissement, à la radiation, aux communications et aux coûts.
Source : wccftech