Musk agite la course de l’IA avec une idée de science-fiction : des centres de données en orbite… et un nouveau goulet d’étranglement

Musk agite la course de l'IA avec une idée de science-fiction : des centres de données en orbite... et un nouveau goulet d'étranglement

Elon Musk repousse une fois de plus une proposition qui semble tout droit sortie d’un roman : déplacer une partie de l’infrastructure d’intelligence artificielle vers l’espace. Non pas en tant que métaphore, mais comme un plan qui, selon ses propos, deviendrait « économiquement viable » en quelques années. La raison qu’il avance n’est pas technologique mais électrique : l’expansion actuelle de l’IA serait confrontée à une limite très Terre-à-terre — la disponibilité d’énergie et la capacité réelle des réseaux à alimenter de nouveaux centres de données.

Cette idée a gagné en crédibilité ces derniers jours par deux voies. D’une part, Musk a affirmé lors d’une longue interview que le « facteur limitant » de l’industrie évolue : d’abord ce sera l’énergie, puis, une fois cette barrière franchie, ce seront les puces. D’autre part, SpaceX a demandé à la FCC américaine l’autorisation pour déployer une gigantesque constellation de satellites conçus pour fonctionner comme des « centres de données » solaires en orbite, jusqu’à un million d’unités envisagées dans les plans officiels.

Au cours de l’interview, Musk évoque un horizon ambitieux : « dans 36 mois, mais probablement plus près de 30 », l’endroit le plus économique pour accueillir l’IA serait l’espace. Son raisonnement repose sur le fait que la Terre présente trop de frictions pour suivre le rythme exigé par ces modèles : permis, connectivité au réseau, goulets d’étranglement industriels, et un réseau électrique qui ne s’adapte pas à la demande. Il résume cela par une image percutante : les États-Unis consomment en moyenne environ 0,5 térawatt ; parler d’1 térawatt reviendrait à doubler cette consommation. Dans ce scénario, il interroge implicitement : combien de centrales et de centres de données faudrait-il construire pour soutenir cette vague ?

L’argument de Musk s’appuie sur un débat de plus en plus concret. L’Agence Internationale de l’Énergie (AIE) prévoit que la consommation électrique mondiale des centres de données pourrait plus que doubler d’ici 2030, atteignant environ 945 TWh, avec une croissance annuelle proche de 15 % entre 2024 et 2030, largement impulsée par l’IA. Autrement dit : même si le secteur parvient à fabriquer davantage d’accélérateurs et de serveurs, leur mise en service et leur maintenance deviennent un défi croissant.


Ce concept d’« escape orbital » prend tout son sens. Musk explique que dans l’espace, l’approvisionnement en énergie serait plus simple grâce à l’énergie solaire quasi permanente. Pas de nuits ni de mauvaises météos, et le système pourrait s’étendre avec moins de dépendance au terrain, à l’eau et au réseau électrique. Cependant, cette promesse rencontre un obstacle souvent évoqué par les ingénieurs : la gestion de la chaleur.

Sur Terre, un centre de données évacue la chaleur par l’air, l’eau, et de grands systèmes de refroidissement par convection. Dans le vide spatial, la convection n’existe pas : la dissipation thermique ne peut se faire que par radiation, ce qui nécessite des radiateurs volumineux, lourds et coûteux. La Associated Press relayait le scepticisme d’experts qui mettent en garde qu’un chip sans refroidissement adéquat dans l’espace pourrait rapidement surchauffer, dans un environnement paradoxalement « froid ». Musk, dans son interview, tente de devancer cette critique avec une solution concrète : concevoir des puces plus résistantes à la radiation et capables de fonctionner à des températures plus élevées. Il avance même que, dans le cadre de réseaux neuronaux massifs, les « bit flips » aléatoires induits par la radiation seraient moins critiques que dans des programmes heuristiques traditionnels, grâce à la résilience statistique de modèles comptant des milliards de paramètres. Cependant, cette approche ne supprime pas l’enjeu principal : il faut évacuer la chaleur d’une manière ou d’une autre.

Le débat ne se limite pas à la théorie. Reuters rapportait que le PDG d’AWS, Matt Garman, a relativisé l’enthousiasme en qualifiant les centres de données orbitaux de projet « encore loin » d’une réalité économique, en évoquant les difficultés logistiques et les coûts de lancement. La même étude mentionnait que d’autres acteurs explorent des idées similaires, ce qui suggère que le secteur, au moins, examine le problème sous des angles de plus en plus extrêmes.

Parallèlement, des « premiers essais » commencent à alimenter cette vision : Starcloud a annoncé le déploiement d’une GPU NVIDIA H100 en orbite, en tant que composant d’un satellite (Starcloud-1), en revendiquant une étape importante pour le calcul haute performance hors de la Terre. La différence substantielle entre cette démonstration — aussi importante soit-elle — et une infrastructure de centaines de gigawatts en orbite, comme le suggère Musk, reste abyssale. Mais elle montre que l’industrie commence à tester le terrain.

Ce que Musk souligne de manière plus ferme, c’est le « prochain mur » si celui de l’énergie venait à se briser : l’approvisionnement en semi-conducteurs. Il détaille que Tesla réserve déjà de la capacité chez TSMC à Taïwan et en Arizona, ainsi que chez Samsung en Corée et au Texas, mais rappelle qu’un levage de fabrique et une mise en production à grande échelle avec de bons rendements peuvent prendre environ cinq ans. Il insiste donc sur la nécessité d’une « TeraFab » : une mégafabrication capable de produire des puces à une échelle sans précédent, incluant logique, mémoire et empaquetage avancé, avec une ambition dépassant le million d’oneilles de wafers par mois.

Ce focus sur la chaîne d’approvisionnement n’est pas fortuit. Musk cherche à transformer Tesla en quelque chose de plus qu’un constructeur automobile : sa vision pour les humanoïdes comme Optimus dépend de composants, actuateurs et savoir-faire industriel qui se concentrent aujourd’hui en grande partie en Asie. Un article récent décrivait comment des fournisseurs chinois deviennent des acteurs clés de l’écosystème de composants pour robots humanoïdes liés au projet. C’est un signe que la tension centrale de ce nouveau cycle réside dans la nécessité de disposer d’un réseau mondial pour construire le futur, même pour ceux qui veulent « réindustrialiser » chez eux.

En résumé, le débat sur les centres de données en orbite fonctionne comme un symptôme : la course à l’IA ne se joue plus uniquement sur les modèles et algorithmes, mais aussi sur l’électricité, le refroidissement, les permis, les fusées et la fabrication de puces. Ce que Musk met sur la table — avec sa marque habituelle de provocation et d’ambition — pose une question dérangeante pour toute l’industrie : et si la véritable limite de l’IA n’était pas la puissance de calcul… mais la capacité à la maintenir ?

Questions fréquentes

Qu’est-ce qu’un “centre de données orbital” et en quoi diffère-t-il d’un satellite ordinaire ?
Un centre de données orbital serait une plateforme en orbite conçue pour traiter et stocker des données (y compris l’IA) utilisant l’énergie solaire, avec des communications vers la Terre. Contrairement à un satellite classique, il privilégierait la puissance de calcul et la gestion thermique.

Pourquoi l’approvisionnement électrique est-il devenu le principal frein à l’IA ?
Parce que la demande de centres de données croît plus vite que l’extension des réseaux et de la production électrique. De plus, la connexion de nouvelles installations peut nécessiter des travaux, des permis et des délais incompatibles avec le rythme des investissements en IA.

Quel est le principal défi technique pour exécuter de l’IA dans l’espace ?
La gestion de la chaleur. Dans le vide, il n’y a pas d’air ni d’eau pour évacuer la chaleur par convection ; il faut la dissiper par radiation, ce qui nécessite des surfaces et des designs augmentant la masse, la complexité et le coût.

Qu’est-ce qu’une “TeraFab” et pourquoi Musk la cite-t-il comme solution ?
C’est l’idée d’une mégafabrique destinée à produire des puces à une échelle sans précédent, comprenant la logique, la mémoire et l’emballage avancé. L’objectif serait de dépasser le goulet d’étranglement de la fabrication des semi-conducteurs si la demande d’accélérateurs continue de croître rapidement.

le dernier