Depuis des années, le débat sur la refroidissement dans les centres de données se résolvait par un mantra simple : si l’air supporte, il ne faut rien changer. Mais 2025 a changé la donne. L’expansion de l’Intelligence Artificielle — avec des GPU et des accélérateurs de plus en plus denses — a poussé de nombreux opérateurs à un point délicat : la chaleur n’est plus un simple problème technique isolé, mais un facteur qui influence la capacité, les délais de livraison et, en fin de compte, la rentabilité.
Cette tendance s’explique par une somme de pressions. D’une part, la demande électrique des centres de données continue de croître, et les régulateurs européens ont commencé à exiger davantage de transparence, en obligeant à rendre compte d’indicateurs et de pratiques énergétiques pour les installations dépassant certains seuils de puissance. D’autre part, la course au déploiement d’infrastructures d’IA multiplie la densité thermique à l’intérieur des racks, rehaussant le niveau de ce que la refroidissement par air peut garantir.
Consolidation : lorsque le marché choisit d’acheter du savoir-faire plutôt que de le développer de zéro
Dans ce nouveau contexte, 2025 a également été une année d’acquisitions. La refroidissement liquide est passée d’un “complément” à un axe stratégique, ce qui se traduit par une activité accrue dans le secteur. L’un des mouvements les plus représentatifs a été l’accord d’Eaton pour acquérir l’activité Boyd Thermal pour 9,5 milliards de dollars, dans le but explicite de renforcer son portefeuille de solutions de refroidissement liquide pour centres de données. Parallèlement, d’autres opérations et acquisitions dans le secteur reflètent la même logique : celui qui maîtrise la chaîne de puissance et de refroidissement aura un avantage pour le déploiement massif de l’IA.
Il est facile de comprendre cette logique : le marché se remplit de solutions similaires, souvent nées comme niches, et la consolidation permet aux grands acteurs d’intégrer produit, support global, fabrication et capacité de livraison. Dans un environnement où les clients exigent des délais et des garanties, l’échelle redeviens un facteur clé.
Des kilowatts aux mégawatts : l’ère des « véritables » unités de distribution de refroidissement (CDU)
Le signe le plus visible de cette maturité technique est la montée en capacité des CDU (Cooling Distribution Units), ces unités qui distribuent le fluide de refroidissement dans les architectures de refroidissement liquide. En 2025, les CDU capables de supporter 2 MW commencent à se standardiser, mais la barre a déjà été encore plus haut : Schneider Electric et Motivair ont présenté des CDU pouvant gérer 2,5 MW, tandis que Flex et JetCool ont montré une approche modulaire pouvant être assemblée pour atteindre 1,8 MW. Même des opérateurs comme Switch défendent des systèmes hybrides (air + liquide) avec une capacité équivalente, déjà en production.
Ce changement n’est pas cosmétique. Parler de mégawatts dans un CDU, c’est reconnaître que le goulot d’étranglement n’est plus seulement la quantité de serveurs accueillis dans une salle, mais la capacité à extraire de manière stable, sécurisée et opérationnelle la puissance thermique. En d’autres termes : le marché conçoit désormais la refroidissement pour soutenir des racks et des pods d’IA qui, il y a peu, semblaient relever de la science-fiction.
Normes ouvertes : Google fixe la référence et le secteur s’en inspire
L’autre grande étape d’« industrialisation » arrive avec les normes. En 2025, Google a impulsé la notion de spécifications ouvertes en mettant à disposition de la communauté de l’Open Compute Project (OCP) les détails de sa conception interne de CDU, le Project Deschutes. Ce geste est important car il réduit la friction : si le secteur converge vers des architectures de référence, fabricants, intégrateurs et opérateurs peuvent déployer plus rapidement et avec moins de risques.
Et Google ne se limite pas à des plans : lors du OCP Europe Summit (Dublin), la société a détaillé l’étendue de ses déploiements de refroidissement liquide, indiquant qu’environ la moitié de son empreinte mondiale dispose déjà de refroidissement liquide activé ou déployé, avec près de 1 GW de capacité répartie sur 2 000 pods basés sur ses TPUs, et un objectif de disponibilité de 99,999 %.
Immersion, microcanaux et « batteries de glace » : l’innovation s’élargit
Alors que la refroidissement direct sur puce (liquide sur plaque froide) devient la voie la plus adoptée, la refroidissement par immersion continue à gagner du terrain comme alternative. En 2025, Submer a signé un protocole d’accord avec le gouvernement du Madhya Pradesh pour développer jusqu’à 1 GW de centres de données IA refroidis par liquide, tandis que d’autres acteurs ont présenté des pods d’immersion et annoncé des développements de nouvelles plateformes.
Par ailleurs, des approches encore plus radicales ont émergé. Microsoft et la startup suisse Corintis ont travaillé sur un refroidissement microfluide « à l’intérieur de la puce », faisant circuler le fluide de refroidissement dans des canaux microscopiques gravés dans le silicium. Selon divers médias, cette approche pourrait améliorer l’évacuation de chaleur par rapport aux plaques froides conventionnelles, et Corintis a levé des fonds pour accélérer le déploiement industriel.
L’efficacité énergétique a également inspiré des solutions moins visibles mais potentiellement décisives pour l’exploitation : des « batteries de glace » (stockage thermique) pour déplacer la consommation de refroidissement durant les heures creuses — avec des fournisseurs affirmant pouvoir rendre flexible jusqu’à 40 % de la charge de pointe — ainsi que des technologies de réutilisation de la chaleur résiduelle.
Chaleur résiduelle : de la promesse marketing à une obligation sociale (et réglementaire)
La réutilisation de la chaleur devient un sujet délicat pour ceux qui ne l’ont pas encore résolue. Les communautés locales et les administrations exercent une pression pour que l’excédent thermique ne soit pas gaspillé, et l’UE a lancé des schémas de rapport et de métriques qui, en pratique, encouragent à professionnaliser la démarche : mesurer, comparer, justifier et — lorsque c’est possible — réutiliser. Parmi les projets annoncés en 2025 figurent des pilotes de chauffage urbain en Allemagne, des accords pour chauffer des installations industrielles et des plans pour valoriser la chaleur provenant des superordinateurs afin de chauffer plusieurs bâtiments.
Dans ce contexte, le refroidissement n’est plus simplement une ligne du budget immobilier, mais une pièce maîtresse de l’activité numérique : il détermine la quantité d’IA déployable, la vitesse, la consommation, et le niveau d’acceptation sociale et politique.
Questions fréquentes
Qu’est-ce qu’un CDU et pourquoi parle-t-on de CDU de 2 MW dans les centres de données d’IA ?
Un CDU (Cooling Distribution Unit) distribue le fluide de refroidissement vers les racks ou pods. La référence à 2 MW reflète la montée en densité thermique : il faut une infrastructure capable de déplacer et de contrôler de grands flux de refroidissement pour les charges d’IA à grande échelle.
Quand la refroidissement par air n’est plus suffisant dans un centre de données ?
Lorsque la densité par rack et la concentration d’accélérateurs empêchent l’air d’évacuer la chaleur avec stabilité ou efficacité. Dans ces cas, le liquide offre une meilleure transfert thermique et permet d’augmenter la puissance sans risquer l’exploitation.
Quelles différences pratiques entre refroidissement liquide direct-plate et immersion ?
Le direct-plate refroidit des composants spécifiques par des plaques froides et un circuit liquide ; l’immersion consiste à plonger les serveurs dans un fluide diélectrique. La première s’intègre plus facilement aux designs standards, tandis que la seconde permet des densités extrêmes, mais nécessite des changements opérationnels et logistiques.
Pourquoi la réutilisation de chaleur résiduelle devient-elle importante en Europe ?
Parce que la pression sociale et réglementaire pousse à justifier l’impact énergétique des centres de données. La valorisation de la chaleur (en réseau de chauffage urbain ou pour des processus industriels) améliore l’efficacité globale et peut faciliter les autorisations et l’acceptation locale.