Crusoe a annoncé un partenariat avec Starcloud pour devenir le premier fournisseur de cloud public à exécuter des charges de travail dans l’espace. La démarche, dévoilée le 22 octobre 2025, prévoit le déploiement d’un module de Crusoe Cloud sur un satellite de Starcloud, avec lancement prévu fin 2026 et mise à disposition d’une capacité GPU limitée depuis l’orbite début 2027. Cette initiative vise un objectif audacieux : battre le goulot d’étranglement énergétique qui limite aujourd’hui la croissance des centres de données dédiés à l’Intelligence Artificielle, en exploitant l’énergie solaire comme ressource quasi inépuisable.
Ce projet ne sort pas de nulle part. Starcloud est une startup spécialisée dans la création de centres de données orbitales alimentés par panneaux solaires dédiés, conçus pour émettre la chaleur dans le vide spatial plutôt que dépendre de systèmes de refroidissement terrestres complexes. Leur feuille de route inclut un premier jalon marquant : mettre en orbite une GPU NVIDIA H100 en novembre 2025, une machine 100 fois plus performante que toute unité de calcul envoyée dans l’espace auparavant, selon leur déclaration. La collaboration avec Crusoe—qui privilégie un modèle « energy-first », co-localisant déjà le calcul avec des sources énergétiques non conventionnelles sur Terre— étend cette philosophie au-delà de l’atmosphère.
Pourquoi cela a-t-il de l’importance : énergie, refroidissement et échelle
La montée en puissance de l’IA générative a multiplié la densité énergétique des clusters GPU et accru la demande électrique des bases de données. Sur Terre, augmenter la puissance et le refroidissement devient un casse-tête lié à l’obtention des permis, aux réseaux électriques saturés et à la consommation d’eau, déjà source de débats politiques. L’espace offre, sur le papier, trois avantages majeurs :
- Énergie solaire 24/7 (selon orbite et gestion thermique) : en orbite basse, les satellites peuvent optimiser leur exposition au soleil avec une stabilité difficilement atteinte en terrain terrestre.
- Refroidissement par radiation : le vide spatial oblige à irradiar la chaleur en infrarouge, supprimant la nécessité de tours de refroidissement et consommation d’eau ; correctement maîtrisé, cela réduit la complexité et l’empreinte hydrique.
- Échelle modulaire : en se développant par modules orbitaux, le cloud spatial pourrait augmenter sa capacité sans occuper de terrains terrestres ni alourdir la facture électrique locale.
Crusoe et Starcloud proposent ainsi de co-localiser le calcul avec la source d’énergie la plus abondante — le soleil — et de transférer uniquement les données essentielles entre l’orbite et la Terre.
Et la latence ? Ce qui change en orbite basse
Exécuter des charges IA dans le ciel soulève des questions évidentes concernant la latence et la bande passante. La bonne nouvelle technique : en orbite basse (LEO), le temps de latence typique est de 20 à 50 ms, comparable à de nombreux réseaux terrestres. Cette fourchette laisse penser qu’une partie des tâches d’inférence et d’analyse pourrait être réalisable directement depuis l’orbite, notamment si les données sont pré-traitées dans le satellite et que les résultats compactés sont renvoyés. Pour des formations massives ou des flux très volumineux, il restera crucial de sélectionnerwhat doit être transféré et quand.
Ce qui sera déployé : le « module Crusoe Cloud » à bord
Le satellite de Starcloud prévu pour fin 2026 intégrera un module dédié hébergeant la plateforme Crusoe Cloud, permettant à des clients sélectionnés d’y déployer des charges d’IA au sein d’une infra-orbitale. La feuille de route prévoit un début avec une capacité limitée —GPU en orbite avec accès contrôlé—, suffisante pour démonstrations, cas d’usage de « edge orbital » et une première validation commerciale : une IA proche de sa source d’énergie.
Par ailleurs, Starcloud et Crusoe envisagent l’extension vers des centres de données orbitaux plus larges à mesure de la maturité de l’architecture et de la croissance de la demande. C’est une étape cohérente si l’on confirme que leur approche énergétique et leur dissipation thermique dans l’espace peuvent évoluer avec fiabilité.
Applications potentielles (première phase)
- Observation de la Terre avec IA : détection précoce d’incendies, inondations ou changements d’usage du sol grâce à du pré-traitement orbital et une simple téléchargement d’alertes ou cartes inferées.
- Communication et sécurité : pré-filtrage et chiffrement en orbite pour alléger les liens vers la Terre et renforcer la souveraineté des données.
- Modèles spécialisés « toujours actifs » : inférence de modèles intermédiaires consommant moins de bande passante, comme embeddings, classification ou segmentation.
Les défis non montrés par le rendu : obstacles à surmonter
Le projet comporte des défis significatifs :
- Gestion thermique : malgrè le vide, la conception de radiateurs performant avec une masse et une surface raisonnables reste un défi majeur.
- Radiation : les composants électroniques et mémoires doivent être endurcis ou protégés pour résister aux tempêtes solaires et à l’environnement orbital.
- Opération et maintenance : sans interventions humaines directes, la tolérance aux pannes et la récupération automatique (software et hardware) sont essentielles.
- Communications : la planification des fenêtres d’échange, le débit et la priorisation du trafic conditionneront la pertinence des charges à traiter en orbite ou sur Terre.
- Coûts et chaîne logistique : intégrer des GPU haut de gamme dans un bus spatial, les certifier et les lancer reste coûteux ; les cycles de mise à jour seront plus longs qu’en terrestre.
Cependant, la volonté industrielle est claire : du financement et des talents soutiennent cette voie. Au-delà de Starcloud, Axiom Space et Lonestar ont déjà réalisé des tests orbitalisés, notamment lunaires, avec de petits centres de données pour valider logiciels, stockage, et opérations automatiques hors de la Terre.
Les avantages pour Crusoe
Crusoe construit depuis plusieurs années une nue fiable pour l’IA en adoptant une approche énergétique peu conventionnelle, allant de gaz de vente mitigée à des solutions renouvelables avec des accords personnalisés. Avec Starcloud, la société élargit son bénéfice différentiel: si elle parvient à assurer disponibilité, qualité de service et Sécurité dans l’espace, elle disposera d’une offre unique par rapport aux géants du cloud traditionnels. Elle ne remplacera pas les centres de données terrestres, mais pourrait transférer une partie de leur chaîne de valeur — celles très énergivores et peu sensibles à la bande passante — dans l’orbite.
Modalités d’accès et profils ciblés
L’accès initial sera limité. Il concerne des clients avec des cas orbitales (imagerie, défense, télécoms) ou ceux cherchant à valider des pipelines IA divisés : pré-traité en orbite, entraînement et inférence lourds en terrestre. Si la latence et les SLA sont compatibles, l’intérêt énergétique peut compenser le coût.
Pour des entreprises généralistes, le calendrier et la logistique nécessitent de la prudence : jusqu’à clarification technique, tarifs, régulations et souveraineté, il est préférable de débuter avec des charges peu sensibles.
Une étape supplémentaire dans une tendance déjà présente
Mettre le calcul proche de ses sources d’énergie ou de données n’est pas une révolution en soi. Ce qui est innovant ici, c’est de le faire hors de la planète avec un hardware de niveau datacenter. En 2025, on observe déjà des prototypes de « data centers » à la ISS, des tests de centres lunaires, et désormais, un accord commercial pour déployer des GPU IA orbitales à des fins de service. Le chemin est devant, mais la direction est tracée.
Questions fréquentes
Quand verrons-nous des GPUs « en location » en orbite ?
Selon le calendrier annoncé, le satellite avec le module Crusoe Cloud sera lancé fin 2026, avec une capacité limitée dès le début 2027.
Quel sera le temps de latence en orbite basse (LEO) ?
Les connexions LEO actuelles oscillent entre 20 et 50 ms en aller-retour, ce qui est comparable à beaucoup de réseaux terrestres. La faisabilité dépendra principalement du volume de données et de la conception des charges (pré-traitement en orbite, résultats réduits).
Pourquoi l’espace facilite-t-il le refroidissement ?
Parce qu’en vide il n’y a pas de convection : la chaleur est irradiée en infrarouge dans le froid spatial. Avec des radiateurs et une gestion thermique adaptée, on élimine l’eau et la majorité des infrastructures de refroidissement traditionnelles ».
Est-ce que cela remplacera les centres de données terrestres ?
Pas à court terme. La solution probable est un modèle hybride, où certains processus énergivores et peu dépendants de la bande passante migrent en orbite, le reste restant en terrestre, près des utilisateurs et des données.
Source : crusoe.ai