NVIDIA a profité de sa conférence GTC pour dévoiler une idée qui, jusqu’à récemment, semblait plus relever de la science-fiction que d’une feuille de route industrielle : déporter une partie du traitement de l’intelligence artificielle directement dans l’espace. La société a annoncé une nouvelle approche de « computation spatiale » visant à étendre son écosystème de calcul accéléré, depuis les centres de données terrestres jusqu’aux satellites, plateformes orbitales et infrastructures de calcul en orbite.
Ce mouvement ne consiste pas simplement à intégrer plus de puissance dans un satellite. NVIDIA propose un modèle hybride où une partie des données est traitée directement dans l’espace, au moment de leur génération, tandis qu’une autre partie continue d’être analysée au sol à l’aide de matériels haute performance. La logique est claire : à mesure que les constellations de satellites, les systèmes d’observation terrestre et les missions commerciales se développent, il devient de plus en plus difficile de dépendre uniquement du transfert de données brutes vers la Terre pour leur traitement.
Du satellite traditionnel à la computation orbitale
La pièce maîtresse de cette annonce est le futur module NVIDIA Space-1 Vera Rubin, conçu pour des environnements où la taille, le poids et la consommation d’énergie sont fortement contraints — trois aspects cruciaux dans le secteur spatial. Selon NVIDIA, ce module est destiné à exécuter de l’inférence en IA en orbite, pouvant servir aussi bien pour des centres de données orbitaux que pour des systèmes d’intelligence géospatiale et d’opérations spatiales autonomes.
Le fabricant affirme que le GPU Rubin intégré dans ce module offrirait jusqu’à 25 fois la capacité de calcul IA pour l’inférence spatiale comparé à un H100 dans le même contexte. Bien que cette donnée soit significative, elle doit être interprétée avec prudence, car elle provient du fabricant lui-même, sans étude comparative indépendante avec une méthodologie détaillée. Néanmoins, l’objectif est clair : NVIDIA entend se positionner comme un acteur de référence dans un marché émergent où le traitement ne se limite plus à la Terre.
En complément de ce futur module, NVIDIA appuie son offensive spatiale avec deux plateformes bien établies : Jetson Orin, une famille de modules compacts atteignant jusqu’à 275 TOPS avec une consommation configurable entre 15 W et 60 W, et IGX Thor, une plateforme industrielle axée sur l’entreprise avec support de la sécurité fonctionnelle et capacité d’IA en temps réel, offrant jusqu’à huit fois plus de puissance IA intégrée par rapport à l’IGX Orin.
Si ni Jetson Orin ni IGX Thor n’ont été spécifiquement conçus pour le secteur spatial, leur efficacité énergétique, leur traitement local et leur compatibilité avec des environnements critiques s’accordent parfaitement avec les besoins de l’intelligence artificielle en périphérie (edge AI) en orbite. Concrètement, cela permettrait d’analyser des images, de naviguer, de fusionner des données de capteurs ou de prendre des décisions opérationnelles sans attendre que toutes les données soient transférées vers la Terre.
Les partenaires ne parlent plus d’avenir : ils construisent déjà des composantes du système
Une des facettes les plus remarquables de cette annonce est que NVIDIA ne l’a pas présentée comme un exercice théorique, mais en s’appuyant sur des entreprises qui travaillent déjà à différentes composantes de cette infrastructure spatiale.
Axiom Space, par exemple, construit les bases d’un « cloud orbital ». La société, connue pour son projet de station spatiale commerciale, a lancé en 2025 son premier prototype de centre de données en orbite, le AxDCU-1, vers la Station spatiale internationale (ISS). Elle a également expliqué que sa stratégie consiste à déployer des nœuds de données en orbite basse pour étendre ses capacités de calcul au-delà de la station.
Kepler Communications est une autre pièce clé : cette entreprise canadienne développe un réseau optique en temps réel entre l’espace et la Terre. Elle considère que le traitement en orbite sera essentiel pour réduire la latence et améliorer l’efficacité du transfert de données. Le 11 janvier 2026, elle a annoncé le lancement d’une première série de 10 satellites relais optiques, et indique avoir déjà mis en orbite 33 satellites en tout. Leur solution combine connectivité, stockage et calcul à bord pour créer une sorte de couche d’Internet spatial.
Sophia Space, autre société mentionnée, évolue dans une phase plus précoce mais tout aussi significative. En février 2026, elle a levé 10 millions de dollars lors d’un tour d’amorçage pour accélérer le développement de sa plateforme modulaire TILE, conçue pour l’inférence IA et le traitement de données en environnement orbital. Son discours tourne autour d’un problème technique critique dans l’espace : comment refroidir et maintenir en fonctionnement des systèmes de calcul intensifs dans des conditions extrêmes.
Starcloud s’inscrit aussi dans cette nouvelle génération d’entreprises évoquant explicitement des centres de données en orbite. Sur leur site, ils expliquent que la baisse des coûts de lancement, l’accès permanent à l’énergie solaire et la réfrigération radiative pourraient rendre explorables à grande échelle ces infrastructures. Si cette vision reste ambitieuse, elle devient de plus en plus crédible.
Aetherflux apporte un angle particulièrement innovant : la dimension énergétique. La société envisage de combiner énergie solaire spatiale et capacité de calcul en orbite, pour exploiter la disponibilité d’énergie dans l’espace afin d’alimenter des charges de IA sans dépendre des contraintes électriques terrestres.
L’intelligence géospatiale, l’usage immédiat
Bien que l’image de « centres de données en orbite » fasse beaucoup de bruit, l’application la plus concrète à court terme semble résider dans l’intelligence géospatiale. C’est là que la proposition de NVIDIA pourrait trouver une implémentation immédiate.
Planet, un autre partenaire du projet, travaille depuis des années à l’analyse d’images de la Terre à grande échelle. Ces activités génèrent d’énormes volumes d’informations qu’il n’est pas toujours pertinent de transmettre intégralement vers le sol avant filtrage, classification ou détection d’événements. Traiter une partie de ces données directement dans le satellite ou dans des nœuds orbitaux intermédiaires permettrait d’économiser de la bande passante et surtout du temps.
Pour le traitement au sol, NVIDIA met en avant la RTX PRO 6000 Blackwell Server Edition, un GPU de centre de données doté de 96 Go de mémoire GDDR7. Selon la société, cette carte peut accélérer jusqu’à 100 fois certains processus comparés à des systèmes traditionnels basés sur CPU, lors de l’analyse de gros fichiers d’images. Comme toujours, cette donnée provient du fabricant, mais l’essentiel est clair : le futur de l’analyse spatiale sera hybride, réparti entre orbite, stations terrestres, cloud et centres de données classiques.
Cette approche peut avoir un impact direct dans des secteurs comme la détection précoce des incendies, le suivi des inondations, la surveillance de pollutions, l’agriculture de précision, la gestion des infrastructures énergétiques ou encore l’analyse climatique — des domaines où quelques minutes peuvent faire toute la différence. En traitant une partie des données avant leur arrivée au sol, on accélère toute la chaîne.
Puissance encore en développement dans un marché naissant
Ce qui rend cette annonce si significative, c’est qu’elle confirme une tendance : la computation spatiale ne se limite plus à l’électronique de vol ou au traitement de base à bord. Les grands acteurs du secteur des semi-conducteurs commencent à percevoir l’espace comme une extension essentielle de l’infrastructure numérique globale.
Cependant, cela ne signifie pas que la station de données orbitales deviendra une réalité viable du jour au lendemain. Le marché en est à ses débuts : prototypes, premiers nœuds, réseaux en déploiement, nombreux défis techniques et économiques à surmonter. La radiation, la fiabilité du matériel, la maintenance, la cybersécurité, les coûts de lancement et la durabilité opérationnelle restent autant de barrières majeures.
Ce que ce lancement modifie, c’est le ton général du secteur. Jusqu’à présent, beaucoup de ces idées restaient dans l’univers des startups ou des démonstrations initiales. La participation de NVIDIA, associée à des sociétés qui déploient déjà des satellites ou des infrastructures spécifiques, donne plus de poids à un concept qui tend à prendre une forme industrielle concrète.
Foire Aux Questions
Qu’a exactement annoncé NVIDIA concernant la computation spatiale ?
NVIDIA a présenté une stratégie pour porter son calcul accéléré dans l’espace, avec plusieurs produits : le futur module Space-1 Vera Rubin pour l’inférence IA en orbite, les plateformes Jetson Orin et IGX Thor pour l’edge AI, et la RTX PRO 6000 Blackwell Server Edition pour le traitement géospatial sur Terre.
Qu’est-ce qu’un centre de données orbital ?
Il s’agit d’une infrastructure de calcul située en orbite, conçue pour traiter, stocker ou router des données dans l’espace avant leur transfert vers la Terre. L’objectif est de réduire la latence, d’économiser la bande passante et de rapprocher le traitement de la source des données.
Quelles sociétés travaillent déjà sur ce type d’infrastructure ?
Parmi celles citées par NVIDIA figurent Axiom Space, Kepler Communications, Planet, Sophia Space, Starcloud et Aetherflux. Certaines ont déjà lancé des prototypes ou des satellites, d’autres développent des réseaux, modules de calcul ou systèmes énergétiques pour rendre cela possible.
À quoi peut servir l’IA en orbite concrètement ?
Les usages les plus immédiats concernent l’observation de la Terre et l’intelligence géospatiale : détection d’incendies, inondations ou pollutions, suivi météorologique, surveillance des infrastructures critiques, agriculture de précision, soutien à des opérations autonomes en satellites ou engins spatiaux.
Source : nvidianews.nvidia