Ces dernières années, une idée aussi séduisante que problématique est devenue à la mode : lancer des centres de données dans l’espace pour alimenter la révolution de l’intelligence artificielle. Sur le papier, cela sonne futuriste et élégant : une énergie solaire « infinie », une refroidissement naturel grâce au froid de l’espace, zéro impact sur le réseau électrique terrestre…
La réalité technique est exactement inverse. Un ancien ingénieur de la NASA, docteur en électronique spatiale et ex-employé de Google (où il a travaillé précisément sur le déploiement de capacités IA dans le cloud), l’a résumé sans détour : c’est une idée « terrible » qui « n’a aucun sens » d’un point de vue ingénierie.
Et lorsqu’on examine les détails, il est difficile d’être en désaccord.
1. Non, il n’y a pas d’« énergie infinie » dans l’espace
Un des arguments les plus avancés est que l’espace offrirait une abondance d’énergie solaire pour alimenter GPUs et TPUs sans les limitations de l’atmosphère terrestre. Mais les chiffres ne soutiennent pas cette idée.
La plus grande installation solaire déployée hors de la Terre est celle de la Station Spatiale Internationale (ISS). Il s’agit d’un système gigantesque, d’environ 2 500 m² de panneaux, capable en conditions idéales de fournir un peu plus de 200 kW de puissance. Son installation a nécessité plusieurs missions de navette et beaucoup de travail en orbite.
Si l’on prend comme référence une GPU haute performance, telle qu’une NVIDIA H200, sa consommation est d’environ 0,7 kW par chip, ce qui, en pratique, se rapproche d’1 kW par GPU une fois que l’on inclut pertes et conversion électrique. Avec cette donnée, une « centrale solaire ISS » en orbite pourrait alimenter au maximum une 200aine de GPUs.
Cela peut sembler beaucoup, jusqu’à ce qu’on le compare à un centre de données réel : le nouveau mégacentre d’IA qu’OpenAI va déployer en Norvège vise environ 100 000 GPUs. Pour égaler cette installation, il faudrait lancer près de 500 satellites de la taille de l’ISS, en laissant de côté tout le reste des systèmes de support.
Quant à l’énergie nucléaire, la fantasie science-fiction n’est pas plus crédible. Il ne s’agit pas d’installer un réacteur nucléaire en orbite, mais plutôt d’utiliser des RTG (générateurs thermoélectriques à radioisotopes) comme ceux qui alimentent les sondes spatiales : typiquement 50–150 W. Pas même suffisant pour une seule GPU de dernière génération, sans compter le risque non trivial à lancer régulièrement du matériel radioactif en cas de défaillance du lanceur.
2. Le mythe du « froid de l’espace » et la réalité de la refroidissement en vide
Autre idée reçue : « Dans l’espace, il fait froid, donc il sera facile de refroidir les serveurs ».
La réponse courte : non. La réponse longue : très non.
Sur Terre, les centres de données exploitent surtout la convection : l’air (ou le liquide) absorbe la chaleur puis la transporte ailleurs. Ventilateurs, échangeurs de chaleur, et de plus en plus, refroidissement liquide, transfèrent la chaleur depuis les composants vers des systèmes qui la dissipent dans l’environnement.
Dans l’espace, il n’y a presque pas d’air, donc pratiquement pas de vide. Cela signifie que la convection disparaît. Il ne reste que deux mécanismes :
- Conduction : transférer la chaleur à l’intérieur de la structure elle-même.
- Rayonnement : émettre la chaleur dans l’espace via des panneaux radiateurs.
La Station Spatiale utilise un système de contrôle thermique actif avec des boucles d’amonique et d’immenses radiateurs. Ce système peut dissiper environ 16 kW de chaleur, ce qui équivaut à peu près à 16 GPUs de type H200. Chaque panneau radiateur fait environ 42,5 m².
Pour dissiper 200 kW — soit les 200 GPUs mentionnées plus tôt — il faudrait multiplier ce système par environ 12,5 fois : on parle alors de plus de 500 m² de radiateurs. Le résultat serait un satellite énorme, avec des panneaux thermiques dépassant largement la taille des panneaux solaires nécessaires pour alimenter ce « mini-centre de données »… qui, rappelons-le, ne représente guère que trois racks terrestres standards.
Et cela en supposant que l’on puisse orienter en permanence le radiateur « vers l’obscurité » et gérer l’immense variation de température entre la face au Soleil et la face en ombre. La conception thermique en espace profond est un art complexe, même pour des charges de l’ordre de 1 W ; le faire pour des centaines de kilowatts de GPUs revient à une nightmare technique.
3. La radiation : l’ennemi invisible des GPUs
Même si l’on résolvait la question de l’énergie et du refroidissement, un autre problème majeur subsisterait : la radiation spatiale.
En dehors de l’atmosphère, et selon l’altitude, à l’intérieur ou à l’extérieur des ceintures de Van Allen, les systèmes électroniques sont exposés à un flux constant de particules d’énergie élevée provenant du Soleil et de l’espace profond : électrons relativistes, protons et noyaux atomiques qui traversent le silicium à une vitesse proche de celle de la lumière.
Cela provoque plusieurs effets :
- SEU (Single Event Upset) : des particules provoquant une impulsion qui modifie des bits en mémoire ou en logique, entraînant des erreurs aléatoires.
- Latch-up : la particule active un chemin de conduction entre les lignes d’alimentation à l’intérieur du circuit, créant un court-circuit local susceptible d’endommager le composant de façon permanente s’il n’est pas rapidement mitigé.
- Effets de dose accumulée : le composant se dégrade avec le temps ; transistors de géométrie ultra-petite (GPU modernes) deviennent plus lents, plus inefficaces, la consommation augmente, et la fréquence maximale devient difficile à maintenir.
Dans la plupart des missions spatiales, la solution classique consiste à concevoir une électronique durcie à la radiation : géométries plus épaisses, topologies spécifiques, redondance au niveau du circuit, marges de timing conservatrices. Résultat : des processeurs qui fonctionnent comme des CPU d’il y a 15–20 ans, mais qui survivent en orbite pendant des années.
Vouloir utiliser une GPU ou TPU de pointe, avec des nœuds de 5 nm, 4 nm ou moins, et des massifs blocs de silicium et mémoire HBM intégrés, est presque la pire combinaison possible face à la radiation : surface importante, transistors miniatures, et densité d’électronique très élevée.
Il serait théoriquement envisageable de concevoir une « GPU spatiale » avec des nœuds plus épais et des techniques RHBD, mais ses performances seraient une fraction de ce que l’on obtient sur Terre. Cela va à l’encontre même de l’objectif de la course aux centres de données orbitales.
4. Les communications : un goulot d’étranglement incontournable
Un centre de données IA moderne repose sur des réseaux internes de 100 à 400 Gbps par lien, avec des maillages de connexion dédiés et une faible latence pour entraîner des modèles distribués ou fournir des inférences à grande échelle.
Un satellite typique, en revanche, communique par radio avec le sol à environ 1 Gbps comme chiffre raisonnable. Les communications optiques (Laser) promettent des débits bien plus élevés, mais dépendent de conditions atmosphériques idéales et de technologies encore émergentes pour une utilisation de masse.
Même si l’on pouvait augmenter considérablement le débit descendant et montant, la latence physique — étant donné la distance de plusieurs centaines ou milliers de kilomètres — et la limitation par le nombre de liens parallèles rendent irréaliste l’idée d’un « centre de données orbital » comme partie d’un cloud IA commercial.
5. Coûts exorbitants pour un rendement médiocre
En combinant tous ces aspects — énergie, refroidissement, radiation, communications, opérations, lancements, remplacement de matériel — la conclusion économique est sans appel : réaliser en orbite l’équivalent de quelques racks de GPU impliquerait des investissements et des risques qui ne se justifieraient en aucune façon par rapport à la construction de centres de données avancés sur Terre.
Dans le meilleur des cas, on obtiendrait une infrastructure très coûteuse, difficile à maintenir, avec un rendement limité et une durée de vie contrainte par la dégradation radiative et les défaillances inévitables des lanceurs ou des satellites eux-mêmes.
Pendant ce temps, sur Terre, l’industrie continue d’avancer avec des solutions beaucoup plus raisonnables :
- Centres de données proches de sources d’énergie renouvelable (hydroélectricité, éolien, nucléaire).
- Refroidissement liquide efficace, voire immersion directe dans certains cas.
- Réutilisation de la chaleur résiduelle pour le chauffage urbain ou des processus industriels.
- Optimisation de la consommation et de la charge de travail des modèles d’IA.
Une idée marketing séduisante, mais une mauvaise idée d’ingénierie
Est-il techniquement possible de construire un « centre de données spatial » ? Avec des financements importants et des cerveaux brillants, presque tout devient envisageable. Mais que ce soit possible ne veut pas dire que cela fasse sens.
Dans ce cas précis, la comparaison honnête avec des alternatives sur Terre montre que l’idée d’un centre orbital est ce qu’elle est : un mirage futuriste séduisant pour faire parler, mais profondément inefficace et fragile lorsqu’on examine le détail technique.
Ce que ce débat nous rappelle, c’est une leçon simple : avant de rêver de nuages littéraux au-dessus de nos têtes, il vaut mieux exploiter à fond tout ce que nous savons déjà faire très bien ici, sur notre planète où, heureusement, nous disposons encore d’atmosphère, de gravité raisonnable… et de centres de données qui ne nécessitent pas de lancement en fusée.
via : taranis.ie