NVIDIA ne se limite plus à dominer le centre de données terrestre. Face à la croissance exponentielle de la demande en calcul pour l’Intelligence Artificielle — et alors que les contraintes en énergie, en espace et en refroidissement deviennent de plus en plus pressantes — la société a commencé à repositionner ses ambitions vers un domaine qui relevait jusqu’à peu de la science-fiction : développer une partie de l’infrastructure de calcul en orbite.
La première indication claire de cette démarche est apparue sous la forme d’une offre d’emploi. NVIDIA recherche un “Architecte Systèmes pour Centres de Données Orbitaux”, chargé de concevoir des systèmes de “centres de données orbitaux” “du composant au satellite”, ainsi que la connectivité entre satellites. La rémunération de base annoncée se situe entre 224 000 et 356 500 dollars (sans compter actions et autres bénéfices). La description du poste mentionne des connaissances en environnement spatial — radiations, tolérances environnementales, fiabilité et solutions thermiques — ainsi qu’une expérience face aux défis mécaniques liés aux lancements.
Cette opportunité n’est pas passée inaperçue dans le secteur de l’infrastructure. Les médias spécialisés y voient un indicateur que NVIDIA souhaite s’inscrire “aux origines” d’une nouvelle industrie : la computation en orbite.
Pourquoi voudrait-on des centres de données dans l’espace ?
Le concept repose sur deux promesses attrayantes pour tout planificateur d’infrastructure : l’énergie solaire abondante et un potentiel de scalabilité théorique sans les contraintes réglementaires et territoriales terrestres. Néanmoins, l’espace n’est pas une salle blanche idéale : la radiationsendommage les composants, la maintenance est complexe, et la gestion thermique en vide n’est pas aussi simple que “il fait froid dehors”. C’est pourquoi, même chez NVIDIA, le discours public oscille entre intérêt et prudence.
Ces dernières semaines, Jensen Huang — PDG de NVIDIA — a résumé la situation en une phrase claire : “La rentabilité des centres de données spatiaux est mauvaise pour l’instant, mais pourrait s’améliorer.” Cette déclaration n’arrête pas l’exploration, mais ramène la discussion à la réalité : nous sommes encore au stade d’expérimentations technologiques et de feuille de route, et non d’un déploiement massif immédiat.
De la théorie aux premiers essais : H100 en orbite et projets “dans l’espace”
Ce qui évolue en 2026, c’est la concrétisation de premiers démonstrateurs. La startup Starcloud — souvent évoquée dans ce domaine — a revendiqué un jalon symbolique : faire fonctionner un NVIDIA H100 dans l’espace avant la fin 2025, en effectuant des charges de travail IA pour tester la faisabilité.
La prochaine étape annoncée, encore plus remarquable, consiste à lancer du matériel AWS Outposts dans une mission prévue pour octobre 2026, rapprochant ainsi le concept de “cloud hybride” de l’environnement orbital. L’information provient de publications techniques et d’acteurs de l’écosystème TI, citant des déclarations publiques du PDG de Starcloud.
Google aussi s’engage : Project Suncatcher avec Planet
De son côté, Google a présenté Project Suncatcher, une initiative de recherche visant à explorer la computation à grande échelle dans l’espace via des puces TPU, avec une “mission d’apprentissage” en partenariat avec Planet : deux prototypes de satellites pour début 2027. La société voit cela comme une étape pour comprendre la fiabilité en orbite, relever les défis thermiques et évaluer la possibilité de faire évoluer des clusters dans le futur.
SpaceX intensifie la mise : jusqu’à 1 million de satellites… et un feu d’artifice de controverses
Dans le camp le plus audacieux, SpaceX a déposé, fin janvier 2026, une demande auprès de la FCC pour un système pouvant compter jusqu’à 1 million de satellites liés à l’idée de centres de données orbitaux, un volume qui a immédiatement alimenté un débat public et technique. La FCC a accepté le dossier pour la procédure, lançant une consultation via des commentaires, focalisée sur la faisabilité, la sécurité spatiale et les risques de débris orbitaux.
Ce projet a également suscité de vives critiques dans l’industrie. Ces dernières semaines, des voix influentes ont qualifié cette ambition de “ridicule” ou de “folie”, pointant du doigt les coûts, la maintenance, la capacité de lancement et les risques opérationnels liés à une telle opération.
Quel rôle joue NVIDIA dans cette histoire (et pourquoi cette offre est importante) ?
L’annonce d’emploi de NVIDIA est particulièrement révélatrice : la société ne souhaite pas uniquement vendre ses GPU à ceux qui voudraient faire du calcul dans l’espace, elle vise à définir une architecture complète pour des systèmes orbitaux (chips, modules, tolérance à la radiation, interconnexion, gestion thermique, opérations). En clair, NVIDIA veut devenir le fournisseur “de référence” si le marché de la “space compute” prend son essor.
Cela cadre également avec une réalité peu confortable : le goulet d’étranglement de l’IA ne réside plus uniquement dans le silicium, mais dans l’infrastructure globale (énergie, refroidissement, permis, réseau, résilience). Si une partie de cette pression doit migrer dans l’espace — même dans des niches spécifiques — NVIDIA souhaite y être présente dès le début.
Tableau résumé : principales annonces dans la “computing orbital” en 2025–2026
| Acteur | Annonce ou démonstration | Horizon temporel annoncé | Risques ou limitations évidentes |
|---|---|---|---|
| NVIDIA | Poste d’“Architecte Systèmes de Centres de Données Orbitaux” pour concevoir l’IA en orbite ; salaire de 224 000 à 356 500 $ | Contrat déjà publié pour 2026 | Viabilité économique et défis liés aux radiations et à la thermique |
| Starcloud | Premiers tests en orbite avec un H100 ; plan d’expédition d’AWS Outposts | H100 opérationnel en 2025 ; Outposts en octobre 2026 | Échelle, opérations, lancements |
| Project Suncatcher avec Planet : prototypes équipés de TPUs en satellites | Deux prototypes début 2027 | Fiabilité, gestion thermique en orbite | |
| SpaceX | Demande auprès de la FCC pour un système pouvant atteindre un million de satellites | Dossier en cours d’étude en 2026 | Coût, débris spatiaux, maintenance |
Questions fréquentes
Qu’est-ce qu’un “centre de données orbital” ?
Une infrastructure de calcul dans laquelle certains composants (chips/serveurs) sont déployés dans des satellites en orbite pour exécuter des charges de travail, avec l’énergie solaire et des liaisons de communication comme éléments clés.
Pourquoi NVIDIA cherche-t-elle un architecte de centres de données orbitaux ?
Car ce poste vise à concevoir des systèmes complets “du composant au satellite”, préparant ainsi produits et feuille de route si la computation orbitalement devient un marché réel.
Qu’a-t-on déjà réellement testé ?
Starcloud et ses partenaires ont annoncé des essais avec un H100 en orbite et des plans pour une mission AWS Outposts, tandis que Google a évoqué des prototypes pour 2027. Il s’agit encore de premières étapes, loin d’un “centre de données” comparable à celui de la Terre.
Est-ce économiquement viable à court terme ?
Même NVIDIA a reconnu publiquement que la rentabilité “est mauvaise pour l’instant”, et le secteur critique fortement les coûts et les opérations. Le sujet reste ouvert.
sources : datacenterdynamics, Emploi Nvidia et Twitter X