La course à la computation pour l’Intelligence Artificielle ne se joue plus uniquement sur Terre, entre usines de chips, réseaux de fibre optique et mégacentres de données. Une nouvelle génération d’entreprises cherche à ouvrir un nouveau front : la basse orbite. Dans ce contexte, la startup Starcloud propose un plan aussi ambitieux que difficile à réaliser : déployer du matériel AWS Outposts dans l’espace et, à terme, construire une constellation pouvant atteindre 88 000 satellites dédiés aux charges de calcul.
Ce projet ne se résume pas à une expérience « curieuse ». Il témoigne plutôt d’un marché où le goulet d’étranglement ne se limite plus à la puissance de calcul, mais aussi à comment et où cette puissance est alimentée, refroidie et évoluée sans que l’infrastructure terrestre (énergie, permis, terrain, eau, réseaux) devienne la véritable contrainte. La promesse de la computation orbitale repose sur des avantages physiques évidents — énergie solaire disponible la majorité du temps, refroidissement par radiation — mais faire passer une démonstration à une flotte massif pose encore de nombreuses questions techniques, économiques et réglementaires.
Quelle place pour AWS Outposts dans l’univers des satellites ?
AWS Outposts consiste en AWS « chez vous » : des racks/serveurs gérés par Amazon Web Services, destinés à exécuter des services et des charges proches des données, avec une expérience similaire au cloud, mais en environnements sur site ou en périphérie. Traditionnellement, cette offre s’adresse à des scénarios à faible latence, à la résidence des données, à l’intégration avec des systèmes locaux ou industriels.
La stratégie derrière « Outposts en orbite » est claire : si l’informatique se déplace vers le edge (le bord), ce bord peut même devenir… littéralement, l’espace. Pour des charges de travail générant des données en dehors d’un centre de données (observations terrestres, capteurs, communications, analyses distribuées), traiter « là-haut » permet de réduire le volume à ramener sur Terre et d’accélérer la prise de décision. En substance : moins « transporter de données », plus « transporter des résultats ».
De plus, Outposts n’est pas un produit figé. AWS a constamment mis à jour la plateforme et son hardware pour suivre l’évolution des instances et des besoins des environnements d’entreprise, un point important si une société souhaite bâtir une couche de calcul hors de notre planète.
De la démonstration avec GPU « de centre de données » au rêve orbital
Starcloud ne construit pas cette vision à partir de zéro. La société, avec une histoire récente liée à l’idée de « data centers dans l’espace », a cherché à valider étape par étape sa capacité à exploiter des calculs haute performance dans des conditions orbitales. En novembre 2025, elle a lancé un premier satellite équipé d’une GPU NVIDIA H100, puis a annoncé des tests d’exécution de modèles de langage dans cet environnement, utilisant une GPU de classe « data center » en orbite. Ces jalons attestent principalement de la faisabilité de base (approvisionnement en énergie, gestion thermique, télémétrie, stabilité), mais ne répondent pas encore à la question clé : si le modèle peut évoluer de manière fiable, à un coût acceptable et avec un maintien durable.
La perspective d’une constellation pouvant compter jusqu’à 88 000 satellites élève la discussion du laboratoire à l’échelle industrielle : conception et fabrication à grande échelle, logistique des lancements, gestion du spectre, opérations continues, remplacements, dégradation due aux radiations, tout en considérant l’impact sur la congestion orbitale et la conformité aux normes de durabilité spatiale.
Pourquoi cette idée séduit… et pourquoi fait peur
Le concept de computation orbitale séduisent sur le papier pour trois raisons principales :
- Énergie : la consommation électrique est un vrai défi pour l’IA. Sur Terre, l’accès à une puissance adaptée et aux sous-stations freine souvent de nouveaux déploiements. Dans l’espace, l’énergie solaire et la conception des panneaux offrent une nouvelle approche, malgré des limites pratiques et des coûts.
- Refroidissement : les centres de données traditionnels évoluent vers des densités accrues et le refroidissement liquide. Dans l’espace, la dissipation thermique ne fonctionne pas comme sur Terre, mais la radiance thermique et la conception du satellite permettent de concevoir d’autres stratégies.
- Vraiment à la périphérie : si les données naissent dans l’espace (capteurs, observation, télécommunications), les traiter sur place réduit la latence et limite le downlink.
Mais les risques sont également évidents :
- Fiabilité et maintenance : un centre terrestre peut être accessible, réparé et mis à jour. En orbite, la maintenance physique est rare et coûteuse. Tout doit être conçu pour réduire les pannes… et pour faciliter le remplacement.
- Sécurité et chaîne de confiance : pour des charges sensibles, la sécurité ne se limite pas au chiffrement ou à l’accès, mais inclut aussi la confiance dans le firmware, le démarrage sécurisé, la télémétrie et l’isolement des utilisateurs. La surface d’attaque change quand le nœud est à plusieurs centaines de kilomètres et dépend d’échanges RF.
- Réseau et latence : emmener le calcul dans l’espace ne supprime pas la physique. Il y a des liaisons, des fenêtres de couverture, des handovers et une dépendance aux stations au sol. L’expérience sera excellente pour certains usages… et impossible pour d’autres.
- Réglementation : le lancement de dizaines de milliers de satellites nécessite des licences, une coordination internationale et le respect des normes d’exploitation. La question de la pollution spatiale et de la congestion fait aussi l’objet de débats de plus en plus vifs.
Ce que cette tendance pourrait révolutionner dans le secteur
Bien que l’idée de « data centers en orbite » puisse sembler futuriste, sa valeur comme signal de marché est immédiate : la croissance de l’IA pousse à explorer toute avantage physique ou géographique capable de réduire le coût marginal de la computation, de l’énergie et du refroidissement.
Pour les administrateurs système et développeurs, l’enjeu est clair : si une couche de calcul standardisée (type Outposts) devient ubiquitaire, le déploiement d’applications pourra s’étendre à des lieux aujourd’hui considérés comme extrêmes. Cela obligera à repenser l’observabilité, les mises à jour sécurisées, les modèles de panne, et adoptera une approche plus stricte d’« infrastucture immuable » et de « zero trust », car ces environnements ne seront pas simplement des racks dans une salle, mais des nœuds distants avec une connectivité variable.
En somme, l’annonce de Starcloud n’est pas uniquement une anecdote spatiale. Elle cherche à redéfinir où peut se situer « l’edge » lorsque la planète commence à manquer d’espace pour la demande croissante en calcul.
Questions fréquentes
Qu’est-ce qu’AWS Outposts et à quoi sert-il habituellement en entreprise ?
Il s’agit de matériel géré par AWS (racks/serveurs) destiné à exécuter des services et charges avec une expérience AWS, dans des environnements sur site ou en périphérie. Utilisé pour la faible latence, la résidence des données, l’intégration avec des systèmes locaux, ou pour assurer une opération cohérente entre cloud et centre de données.
Quels cas d’utilisation réels pour la computation orbitale dans l’IA ?
Traitement de données proches de leur source (observation terrestre, capteurs, télécommunications), filtrage ou compression avant leur transmission au sol, inférence distribuée et analyse lorsque le goulet d’étranglement est la liaison pas le calcul.
Quels sont les principaux défis techniques pour un « data center satellite » ?
Fiabilité sans maintenance régulière, résistance à la radiation, gestion thermique spécifique, sécurité du démarrage et du firmware, connectivité intermittente, gestion à l’échelle (monitoring, mises à jour, remplacements).
Est-ce que cela peut remplacer à terme les centres de données terrestres ?
À court ou moyen terme, non. C’est plutôt un complément pour des cas extrêmes ou des charges avec un avantage évident lorsqu’elles sont traitées en orbite. La majorité des calculs restera sur Terre, où l’énergie, la logistique et la réseau sont plus efficaces.
source : LinkedIn