Panthalassa veut faire flotter les data centers d’IA en pleine mer

Panthalassa veut déplacer les centres de données d'IA dans l'océan

Panthalassa, startup basée en Oregon, vient de boucler une série B de 140 millions de dollars menée par Peter Thiel pour fabriquer des nœuds flottants capables d’exécuter du calcul d’IA en pleine mer, alimentés par l’énergie des vagues. Objectif affiché : déployer la série Ocean-3 dans le Pacifique Nord en 2026, avec un lancement commercial visé pour 2027.

Le pari arrive à un moment où l’infrastructure d’IA bute partout sur les mêmes murs : énergie, terrain, refroidissement, permis, acceptation locale. Plutôt que de bâtir encore un campus terrestre, l’entreprise propose de déporter une partie du calcul là où l’énergie est gratuite et le refroidissement immédiat.

Calcul à l’eau, sans passer par le réseau électrique

L’idée rompt avec le modèle classique du data center. Au lieu de tirer un câble jusqu’à une sous-station, Panthalassa propose des nœuds autonomes qui produisent leur propre courant grâce au mouvement des vagues, et le consomment sur place pour faire tourner des accélérateurs d’IA.

Aucune électricité n’est renvoyée à terre. Seul le résultat des inférences, beaucoup plus léger en bande passante que l’énergie nécessaire pour le calculer, transite par satellite en orbite basse. Les nœuds sont conçus pour les zones océaniques éloignées de la côte, là où la houle est plus dense et plus régulière.

Cette approche répond à une pression que tout opérateur connaît. Un centre de données pour l’IA réclame de l’énergie ferme, du refroidissement, du foncier industriel, des permis, une connexion réseau et l’acceptation des riverains. Plusieurs régions, des Pays-Bas à la Virginie, ont déjà gelé de nouveaux projets parce que le réseau sature ou que les habitants protestent. La campagne d’investissement à 15 milliards de dollars de Google en Inde illustre la course aux mégasites, mais aussi les délais et frictions politiques qu’elle implique.

En partant en mer, Panthalassa contourne ces tensions. Les nœuds sont fabriqués en acier dans des usines côtières, puis exploités en autonomie au large. Les prototypes Ocean-1, Ocean-2 et Wavehopper, testés en 2021 et 2024, ont validé selon la société la production d’énergie, la propulsion, l’autonomie et le calcul en environnement marin.

Pourquoi viser l’inférence et pas l’entraînement

Le projet ne prétend pas remplacer les méga-clusters qui entraînent les modèles fondamentaux. L’entraînement réclame des dizaines de milliers d’accélérateurs synchronisés à faible latence, une mémoire à très haut débit et une coordination que la mer ne sait pas offrir. Le port d’un cluster d’entraînement vers un nœud océanique relève aujourd’hui de la fiction.

L’inférence, c’est une autre histoire. Une fois le modèle entraîné, exécuter des requêtes, classer des informations, générer des tokens ou traiter des documents se prête à la distribution. Chaque nœud peut traiter ses propres charges sans dépendre d’une synchronisation fine avec ses voisins.

Le communiqué de Panthalassa parle d’ailleurs explicitement d’« inférence en computation marine ». La nuance compte : on ne déplace pas un data center entier en mer, on construit une flotte distribuée pour des charges qui supportent un peu de latence et beaucoup d’énergie bon marché.

Go where?

Le refroidissement, l’argument qui change la donne

Les puces d’IA chauffent énormément. À terre, leur dissipation oblige à monter des circuits de refroidissement par eau ou par air pulsé, qui pèsent sur le bilan énergétique global et sur la consommation d’eau locale. Quelques opérateurs comptent désormais l’eau utilisée pour refroidir leurs racks comme un poste critique de leur empreinte environnementale.

En mer, la masse thermique de l’océan absorbe naturellement la chaleur des chips. Panthalassa avance que ce refroidissement passif pourrait prolonger la durée de vie des accélérateurs et supprimer un poste entier d’ingénierie thermique. Sur le papier, l’argument est solide. Reste à mesurer si les pertes liées à la corrosion saline ne mangent pas les gains énergétiques.

Une idée crédible, mais des défis lourds

Le potentiel est réel. Les obstacles aussi. L’océan abîme tout : corrosion saline, bio-incrustation, vagues extrêmes, fatigue structurale, tempêtes. Réparer du matériel à distance, sécuriser des installations isolées, gérer la dérive et la maintenance demandent une logistique radicalement différente de celle d’un campus terrestre.

S’ajoutent les questions réglementaires. Faire fonctionner une infrastructure autonome en eaux profondes suppose des permis, une coordination maritime, des assurances, une réglementation environnementale et des garanties de sécurité. Si une flotte de nœuds prend de l’ampleur, il faudra trancher qui surveille, qui intervient en cas d’incident, et quel impact tout cela a sur la navigation, la faune marine ou la pêche.

La connectivité satellite est l’autre maillon faible. Pour l’inférence, transmettre les résultats reste réaliste, mais dépendre d’une liaison orbitale ajoute de la latence, du coût et des limites de capacité. Pour les usages les plus exigeants en temps réel ou en volume continu, la mer ne remplacera pas la fibre.

La fabrication en série pose son propre défi. Panthalassa veut construire une usine pilote près de Portland pour produire ses systèmes à la chaîne. Le passage du prototype validé en piscine à l’unité industrielle déployée en haute mer reste l’étape qui tue la plupart des startups hardware. La présence d’investisseurs comme Peter Thiel, John Doerr, TIME Ventures, SciFi Ventures, Fortescue Ventures et Super Micro Computer apporte de la crédibilité financière, pas une garantie technologique. La course actuelle d’Intel pour entrer dans les TPU de Google rappelle à quel point la fabrication d’accélérateurs reste un goulet d’étranglement, où qu’on les déploie ensuite.

La mer rejoint la liste des frontières du calcul d’IA

Ces 140 millions s’inscrivent dans un mouvement plus large. La demande de calcul dépasse régulièrement la capacité disponible : énergie, transformateurs, terrain, permis, puces, mémoire, refroidissement, fibre. D’où l’intérêt soudain pour des pistes qui paraissaient marginales il y a deux ou trois ans.

Google a étudié des data centers en orbite, Elon Musk parle de calcul lunaire, plusieurs entreprises testent le refroidissement sous-marin ou le couplage à des petits réacteurs modulaires. La spécificité de Panthalassa, c’est qu’elle ne projette pas de ramener l’énergie de la mer vers la terre, mais d’envoyer le calcul là où l’énergie se trouve.

Peter Thiel résume sa thèse en une phrase : les solutions « extra-terrestres » pour le calcul ne relèvent plus de la science-fiction, et Panthalassa aurait ouvert « la frontière océanique ». La formule colle à l’esprit du projet, même si l’exécution sera plus prosaïque qu’héroïque : coût par token, taux de disponibilité, efficacité énergétique, capacité de production.

Si la démarche tient ses promesses, Panthalassa pourra créer une catégorie nouvelle d’infrastructure distribuée pour l’inférence d’IA. Elle ne remplacera pas les grands campus, mais pourrait soulager une partie de la pression sur les réseaux et les communautés locales, en captant les charges qui n’ont aucune raison d’être en zone urbaine.

La vraie question n’est pas de savoir si l’océan a assez d’énergie. C’est de savoir si cette énergie peut devenir du calcul fiable, accessible et compétitif. Les 140 millions levés donnent à Panthalassa les moyens de tenter le coup. Le Pacifique Nord servira de terrain d’essai grandeur nature.

Questions fréquentes

Quel est concrètement le projet de Panthalassa ?
Des nœuds flottants autonomes, fabriqués en acier sur la côte, qui produisent leur courant grâce à l’énergie des vagues et exécutent des tâches d’inférence d’IA en mer. Les résultats remontent à terre par satellite en orbite basse.

Combien la société a-t-elle levé et auprès de qui ?
140 millions de dollars en série B, menés par Peter Thiel. Y participent aussi John Doerr, TIME Ventures, SciFi Ventures, Fortescue Ventures et Super Micro Computer.

Quand les premiers nœuds seront-ils déployés ?
La série pilote Ocean-3 est attendue dans le Pacifique Nord en 2026. Le lancement commercial vise 2027, conditionné à la mise en route de l’usine de Portland.

Pourquoi cibler l’inférence et pas l’entraînement ?
L’entraînement réclame des dizaines de milliers d’accélérateurs synchronisés à faible latence, ce que la mer ne permet pas. L’inférence, distribuée par nature, encaisse mieux la latence satellite et tire parti de l’énergie locale.

Ce système peut-il remplacer les data centers traditionnels ?
Pas à court terme. La technologie cible des charges précises (inférence distribuée, calcul peu sensible à la latence). Elle complète l’infrastructure terrestre plus qu’elle ne la remplace.

le dernier