Il y a tout juste une décennie, la réfrigération liquide dans les centres de données était considérée comme une curiosité technologique, réservée aux superordinateurs, laboratoires de recherche ou projets de niche. Aujourd’hui, cependant, elle est devenue le sujet central de l’industrie. Ce qui semblait encore lointain s’est concrétisé à une vitesse fulgurante : les hyperscalers, les entreprises d’intelligence artificielle et même les opérateurs traditionnels ne se demandent plus s’ils la seront adoptée, mais plutôt comment et quand.
Comment avons-nous si rapidement atteint ce point ? La réponse réside dans la combinaison de trois forces irrésistibles : la croissance exponentielle de la demande en puissance de calcul, la densité énergétique des nouvelles générations de puces et la pression en faveur de la durabilité.
Pendant des années, la ventilation par air a suffi. Des ventilateurs, des bacs d’air froid et des couloirs chauds permettaient de dissiper la chaleur des CPU et serveurs. Mais l’arrivée de l’intelligence artificielle générative a tout changé.
Les nouveaux accélérateurs GPU, tels que NVIDIA Blackwell GB200 ou AMD MI300X, atteignent des consommations supérieures à 1 000 watts par puce. Les configurations de racks dans les centres de données d’IA exigent désormais des densités de 50, 75, voire 100 kW par rack, contre seulement 10-15 kW il y a cinq ans. Selon l’Agence Internationale de l’Énergie, la consommation électrique des centres de données pourrait représenter jusqu’à 12 % de l’électricité totale des États-Unis d’ici 2028, en grande partie en raison de l’IA.
L’air, tout simplement, n’est plus à la hauteur. La physique est implacable : la conductivité thermique de l’eau est 3 500 fois supérieure à celle de l’air. Dans un monde où la HPC et l’IA nécessitent la dissipation de centaines de kilowatts dans des espaces compacts, la transition vers la réfrigération liquide devient non seulement avantageuse, mais inévitable.
La réfrigération liquide n’est pas une nouveauté. Des supercalculateurs comme IBM Blue Gene/Q ou MareNostrum à Barcelone utilisaient déjà des solutions liquides partielles il y a plus de dix ans, mais cela restait marginal. Le changement radical s’est accéléré ces trois dernières années, porté par plusieurs facteurs.
La densité accrue impulsée par l’IA, avec des clusters de 24 000 GPU ou plus, tels que ceux de Meta, Microsoft ou Google, génère un chaleur qui ne peut être évacuée uniquement par l’air. La normalisation industrielle, notamment via le projet Open Compute (OCP) et des fabricants comme NVIDIA, Intel, AMD ou Meta, a instauré des standards pour faciliter le déploiement massif du refroidissement liquide. Par ailleurs, les opérateurs comme Equinix, Digital Realty ou NTT adaptent leurs infrastructures existantes à la technique liquid-to-chip ou aux échangeurs de chaleur à l’arrière des racks, évitant ainsi une reconstruction totale. Enfin, en réponse à une réglementation de plus en plus stricte en matière d’efficacité énergétique et de consommation d’eau, les systèmes liquides, surtout en circuit fermé, consomment nettement moins d’eau que les solutions traditionnelles evaporatives.
Différentes typologies de refroidissement liquide se déploient, chacune avec ses avantages et ses défis : le liquid-to-chip (L2C), très répandu, avec des plaques froides conduisant le liquide directement sur les processeurs ; les échangeurs de chaleur à l’arrière des racks (RDHx) adaptés aux retrofits rapides ; le refroidissement par immersion totale, très performant mais plus complexe à mettre en œuvre ; ainsi que des solutions hybrides et par pulvérisation, emergentes.
Les grands acteurs du secteur s’engagent également. Meta a annoncé que ses pods Catalina avec NVIDIA GB200 adopteront un refroidissement liquide assisté par air (AALC), tandis que Microsoft teste la refroidissement par immersion dans ses installations de Quincy, Washington, depuis 2021. Equinix et Vantage Data Centers déploient des campus conçus pour des racks de 250 kW avec refroidissement liquide standard, et des entreprises chinoises comme Huawei ou Tencent rapportent que plus de 30 % de leurs charges IA utilisent déjà ce type de refroidissement.
Il ne fait désormais plus de doute : la réfrigération liquide n’est pas une technologie expérimentale, mais une norme pour l’IA et la HPC.
Au-delà de l’élimination de la chaleur, le refroidissement liquide s’accompagne d’une efficacité et d’une durabilité accrues. Il permet de réduire la consommation d’eau jusqu’à 90 % par rapport aux systèmes evaporatifs classiques, tout en valorisant la chaleur résiduelle pour l’utilisation dans le chauffage urbain ou divers procédés industriels, notamment dans des pays comme la Suède ou le Danemark. En réduisant la charge de climatisation, les indicateurs d’efficacité énergétique (PUE) peuvent se rapprocher de 1,1 ou moins.
Mais ce processus de transition présente aussi des défis : coûts de déploiement élevés pour la rénovation des centres existants, besoin de compétences spécifiques pour l’entretien, compatibilité limitée des équipements actuels avec le refroidissement liquide, et une certaine méfiance persistante quant au risque que pourrait représenter l’eau près de l’électronique.
L’avenir semble toutefois tracé : la réfrigération liquide deviendra probablement la norme non seulement en IA et HPC, mais également la filière privilégiée pour le cloud et l’informatique d’entreprise. Selon les analystes, d’ici 2030, plus de 50 % de la capacité des nouveaux centres hyperscale sera conçue avec cette technologie. La prochaine génération de puces, avec des densités énergétiques encore plus élevées, ainsi que les systèmes modulaires de fusion ou les piles à combustible, pourraient accélérer cette tendance.
Ce qui a commencé comme une curiosité technologique devient un impératif industriel. La réfrigération liquide a ainsi dépassé le stade de « futur » pour devenir une nécessité incontournable, à mesure que l’intelligence artificielle et la haute performance numérique continueront de croître. La question n’est plus de savoir si cette transition se généralise, mais plutôt qui en régnera en maître : les géants de toujours ou de nouveaux acteurs spécialisés en efficacité thermique, qui pourraient devenir les vrais leaders de cette nouvelle ère.