Typologies de centres de données en 2025 : de l’hyperéchelle à la frontière edge, ce qu’ils construisent, comment ils sont exploités et ce que réclament les projets
Les centres de données (CPD ou data centers) constituent la infrastructure physique de la “n ube” : bâtiments industriels équipés de salles techniques, alimentation électrique et refroidissement redondants, réseaux à fibre, sécurité périmétrale et procédures opérationnelles permettant de faire fonctionner la messagerie, le e-commerce, la banque, les réseaux sociaux, les jeux vidéo ou l’analyse IA. Leur conception et exploitation évoluent rapidement : l’avènement de l’IA à grande échelle, la rareté de la puissance en réseau, la pression réglementaire et la nécessité de latences de plus en plus faibles ont donné lieu à familles de CPD aux missions, tailles et critères de succès très variés.
Voici une cartographie de l’infrastructure en 2025, avec des plages de puissance, des objectifs de disponibilité (Niveau/Tier), d’efficacité (PUE) et ce que demandent aujourd’hui les opérateurs dans toute RFP sérieuse.
1) Campus Hyperscale (Hiperéchelle)
Pour qui et à quoi faire. Grandes infrastructures cloud publiques (IaaS/PaaS/SaaS) et plateformes IA consommatrices de dizaines ou centaines de mégawatts par site. Accueillent regions composées de plusieurs availability zones et, de plus en plus, fermes de GPU avec refroidissement liquide direct sur la puce et densités par rack bien supérieures à celles d’il y a cinq ans.
Principales caractéristiques techniques.
Puissance : 20–100+ MW par phase ; campus de 100–500+ MW.
Densités : de 20–60 kW/rack pour l’informatique classique jusqu’à 80–200 kW/rack (voire >300 kW) pour IA avec direct-to-chip ou immersion.
Disponibilité : conception Tier III ou équivalent, avec multiples niveaux de redondance électrique (N+1/2N) et anneaux de distribution.
Efficience : PUE cible ≤ 1,2 (campus dernière génération avec free cooling, confinement thermique, UPS haute efficacité, systèmes de gestion avancés – BMS/DCIM).
Exploitation : construction design-build industrialisée, pods modulaires, micro-réseaux et BESS (batteries) pour la réduction des pics et le support lors des pics de demande réseau.
Exemples : régions d’AWS, Microsoft Azure, Google Cloud, Oracle et campus de Meta dédiés à l’IA.
2) Campus Colocation (Colo)
Vente d’espace, d’énergie et de connectivité à des tiers. Véritable place publique d’Internet et de l’économie numérique : du retail (dizaines de kW par client) au wholesale (salles entières de plusieurs MW pour peu d’inquilins). Inclut meet-me rooms, fabrics d’interconnexion, accès à IXP, opérateurs de réseau et clouds publics.
Types spécifiques.
Wholesale : 5–40 MW par phase ; contrats de 7–15 ans ; livraison shell & core ou shell alimenté avec fit-out par le client.
Retail : sites de 5–20 MW ; clients allant de 1 à 500 kW avec services gérés, remote hands, bare-metal, cages et cross-connects.
Caractéristiques techniques clés.
Disponibilité : objectif habituel Tier III (maintenabilité simultanée, N+1).
PUE : nouvelle génération 1,2–1,35. Rénovation d’anciens sites 1,4–1,6. Sites traditionnels toujours dans 1,8–2,0.
Densités : l’informatique client classique 5–15 kW/rack; pods de 30–60 kW/rack pour HPC/IA avec corridors confinés ou DLC.
Exemples d’opérateurs : Digital Realty (Interxion), Equinix, DATA4, Global Switch, Nabiax, Vantage, CyrusOne, STACK Infrastructure, NTT GDC, Colt DCS, Iron Mountain.
3) Edge / Micro-DC
Installations petites et réparties proches des utilisateurs ou des nœuds réseau, pour des latences très faibles et un trafic local (CDN, 5G, IoT, broadcast, commerce électronique en dernière étape). Peut s’agir de modules préfabriqués en parcs d’entreprises, d’hôtels pour opérateurs ou de mini-hubs en tours et PoPs.
Puissance : 10–500 kW par site (edge urbain de 1–2 MW).
Disponibilité : de N/N+1 à Tier III dans les nœuds critiques.
Cas d’usage : caching, streaming de jeux vidéo, analytique vidéo, MEC 5G, contrôle industriel.
Exemples : AtlasEdge, EdgeConneX, Cellnex (infrastructures telco et edge).
4) Entreprise sur site
Centres de données en propriété de l’entreprise, sur leur campus ou site industriel (secteur bancaire, assurance, administration, défense, trading, R&D, IP sensible). Coexistent avec le cloud dans des modèles hybrides (données et charges sensibles on-prem, extensibilité et services gérés dans le cloud).
Puissance : 0,5–10 MW. (Certains projets plus importants, notamment dans la banque ou le secteur public.)
Objectifs : Tier II–III; reprise d’activité / plan de continuité (DR/BCP) avec site secondaire.
Défis : modernisation de la PUE (1,6–2,0 héritée), densité limitée (5–10 kW/rack), cycles d’investissement longs.
5) Data Centers des télécoms
Infrastructure nativement opérée pour leur réseau : core mobile, BSS/OSS, plateformes voix et télévisuelles, caches, peering. Sont généralement (sites small), avec des contraintes strictes sur localisation, énergie et résilience pour des missions critiques 24/7.
Puissance : variable ; généralement ≤ 5 MW par site.
Conception : accent sur la redondance électrique/optique et l’exploitation à distance.
Note : Un même groupe peut gérer plusieurs typologies simultanément (hyperscales pour cloud privé, colo pour partenaires, edge pour 5G, on-prem pour le back-office, etc.).
Disponibilité : Tier et redondances (Uptime Institute)
Tier I–II : de base/réduit.
Tier III : maintenabilité simultanée (N+1) ; possibilité d’entretien sans interrompre la charge IT.
Tier IV : tolérant aux pannes (2N / 2(N+1)), partitions et double indépendance des chemins.
L’objectif le plus courant pour les nouvelles constructions commerciales et corporatives : conception Tier III (ou équivalent) avec tests complets et une approche d’exploitation orientée IT en continu.
Tableau — Schémas courants de redondance
Niveau
Électrique
Refroidissement
Implication opérationnelle
N
Une voie
Un train
Maintenance avec arrêt
N+1
Voie + réserve 1
Train + réserve 1
Maintenance sans interruption (toujours > un de plus)
2N
Deux voies complètes
Deux trains complets
Tolérance totale à la panne d’une voie ou d’un train
2(N+1)
Doubles N+1
Doubles N+1
Doubles résilience et flexibilité opérationnelle
Efficience : PUE (Power Usage Effectiveness)
PUE = Énergie totale du CPD / Énergie informatique. Plus il se rapproche de 1,00, moins il consomme d’énergie “non-IT” (climatisation, pertes, UPS, éclairage).
Objectif en Europe : ≤ 1,2–1,3 dans les nouveaux projets ; sont également valorisés WUE (eau) et Energy Reuse Factor (recyclage thermique pour le chauffage urbain).
Gamme de puissances prévisionnelles (2025)
Hyperscale : 20–100+ MW par phase ; campus 100–500+ MW.
Edge/Micro-DC : 10–500 kW par site (edge urbain jusqu’à 1–2 MW).
On-premise : 0,5–10 MW.
Tendances T4 2025 redéfinissant le design
IA à haute densité : Le déploiement massif de rack ≥ 60–120 kW (pouvant atteindre 200–300 kW) avec refroidissement liquide (direct-to-chip, immersion mono- ou bi-phase), manifolds et gestion avancée de l’eau/glycol. Cela nécessite une refonte des salles blanches, distribution de puissance, hauteur sous plafond, structures et protections.
Time-to-power et capacité du réseau Le vrai « goulot d’étranglement » n’est plus le sol, mais la connexion au réseau. Les transformateurs, cellules et postes électriques 132/220 kV ont des délais longs. Les opérateurs exigent des projets avec approbation électrique anticipée, des grid slots garantis et, de plus en plus, BESS pour peak-shaving ou services réseau.
Soutenabilité et reporting : Pression réglementaire (CSRD, taxonomie UE) et objectif 24/7 électricité sans carbone. De la PUE aux portefeuilles de PPAs, WUE, réemploi thermique, HVO dans les groupes, pilotes d’H₂ et transition vers batteries Li-ion avec cadres NFPA/IEC à jour.
Standardisation et modularité : Bibliothèques de conception, salles préfabriquées modulaires, pods réplicables et critères d’ingénierie communs par pays pour déployer rapidement à l’échelle multinationale.
Sécurité et conformité : De la vidéosurveillance et périmètre à Zero-Trust en trafic Est-Ouest, microsegmentations, enclaves sécurisées pour IA, contrôles physiques et numériques intégrés (ISO 27001, ISO 22301, EN 50600, PCI DSS, TISAX, ENS en Espagne).
Ce que recherchent aujourd’hui les opérateurs dans un projet
Time-to-power réel : pas seulement la puissance contractée ; enjeux électriques (OTC, permis, poste, back-up).
Flexibilité d’utilisation : layouts et plant capables d’accueillir un hyperévolutif de densité (de 10 kW/rack à 80–120 kW/rack) sans reconstruction de l’édifice.
Modèle de livraison clair :
Shell & Core : structure, enveloppe, patios et core building ; le client déploie l’IT.
Shell alimenté : structure + énergie et refroidissement de base distribués ; le client adapte les salles.
Clés en main : livraison complète avec salles IT prêtes à fonctionner.
Standardisation multinationale : mêmes critères de conception, bill of materials et playbooks opérationnels dans tous les pays pour déployer rapidement.
Polyvalence commerciale : si aucun anchor tenant dominant, conception polymorphe permettant une multiactivité avec plusieurs types d’opérateurs (cloud, IA, colo, banque) avec un minimum de travaux de rénovation.
Guide pratique pour investisseurs et propriétaires de projets
Viabilité électrique impérative : sans point de raccordement clair et calendrier de la sous-station, le calendrier civil ne vaut pas.
Tier et PUE : indispensables, mais insuffisants ; s’enquérir aussi de procédures, vérifications complètes, KPI opérationnels (MTBF/MTTR, incidents brown-out, SLAs de refroidissement).
Densité et refroidissement : prévoir 20–30 % de la salle prête pour le liquide ; penser à eau et layout pour manifolds et CDU.
Interconnexion : intégrer double MMR, chemins physiques séparés, accords avec opérateurs/fournisseurs de services de réseau dès la conception.
Permis et communauté : évaluer l’impact acoustique, hydraulique, circulation, chaleur résiduelle ; prévoir un plan de réutilisation thermique et dialoguer tôt avec les autorités locales.
Questions fréquentes
Quelle différence pratique entre un hyperscale et un colo ? L’hyperscale appartient au cloud ou au superopérateur en hébergeant ses propres régions ou plateformes. Il est optimisé pour le volume et la gestion interne. Le colocation est multilocataires : il vend espace, énergie et interconnexion à des tiers (banques, SaaS, clouds, opérateurs télécoms), avec des services de retail (à partir de 1 kW) et de wholesale (salles complètes).
Que signifie réellement “Tier III” et pourquoi est-ce l’objectif habituel ? Le Tier III garantit maintenabilité simultanée (N+1) : possibilité d’effectuer des interventions programmées sans couper la charge informatique. C’est le point d’équilibre entre coût et disponibilité pour la majorité des usages commerciaux et corporatifs. Tier IV ajoute une tolérance totale aux pannes (2N), avec une complexité accrue, réservée aux missions extrêmes critiques.
Quel PUE est “bon” en 2025 ? Tout dépend du mix et du climat. Un site neuf en Europe avec un PUE compris entre 1,15 et 1,30 est considéré comme très performant. En rénovation d’infrastructures on-premise, les valeurs 1,6–2,0 restent courantes ; les plans de modernisation visent à réduire de >0,2–0,4 points ces indicateurs par amélioration de la refroidissement, free cooling et UPS haute efficacité.
Quelle densité par rack pour IA ? Pour une utilisation classique, prévoir 10–20 kW/rack. En IA de nouvelle génération, planifier 40–80 kW/rack comme baseline, avec des réserves pour 100–150 kW ou plus avec refroidissement liquide. La complexité et le coût augmentent surtout avec électricité, climatisation et distribution d’eau, plus que par le serveur en lui-même.
Typologies de centres de données en 2025 : de l’hyperéchelle à la frontière edge, ce qu’ils construisent, comment ils sont exploités et ce que réclament les projets
Les centres de données (CPD ou data centers) constituent la infrastructure physique de la “n ube” : bâtiments industriels équipés de salles techniques, alimentation électrique et refroidissement redondants, réseaux à fibre, sécurité périmétrale et procédures opérationnelles permettant de faire fonctionner la messagerie, le e-commerce, la banque, les réseaux sociaux, les jeux vidéo ou l’analyse IA. Leur conception et exploitation évoluent rapidement : l’avènement de l’IA à grande échelle, la rareté de la puissance en réseau, la pression réglementaire et la nécessité de latences de plus en plus faibles ont donné lieu à familles de CPD aux missions, tailles et critères de succès très variés.
Voici une cartographie de l’infrastructure en 2025, avec des plages de puissance, des objectifs de disponibilité (Niveau/Tier), d’efficacité (PUE) et ce que demandent aujourd’hui les opérateurs dans toute RFP sérieuse.
1) Campus Hyperscale (Hiperéchelle)
Pour qui et à quoi faire. Grandes infrastructures cloud publiques (IaaS/PaaS/SaaS) et plateformes IA consommatrices de dizaines ou centaines de mégawatts par site. Accueillent regions composées de plusieurs availability zones et, de plus en plus, fermes de GPU avec refroidissement liquide direct sur la puce et densités par rack bien supérieures à celles d’il y a cinq ans.
Principales caractéristiques techniques.
Exemples : régions d’AWS, Microsoft Azure, Google Cloud, Oracle et campus de Meta dédiés à l’IA.
2) Campus Colocation (Colo)
Vente d’espace, d’énergie et de connectivité à des tiers. Véritable place publique d’Internet et de l’économie numérique : du retail (dizaines de kW par client) au wholesale (salles entières de plusieurs MW pour peu d’inquilins). Inclut meet-me rooms, fabrics d’interconnexion, accès à IXP, opérateurs de réseau et clouds publics.
Types spécifiques.
Caractéristiques techniques clés.
Exemples d’opérateurs : Digital Realty (Interxion), Equinix, DATA4, Global Switch, Nabiax, Vantage, CyrusOne, STACK Infrastructure, NTT GDC, Colt DCS, Iron Mountain.
3) Edge / Micro-DC
Installations petites et réparties proches des utilisateurs ou des nœuds réseau, pour des latences très faibles et un trafic local (CDN, 5G, IoT, broadcast, commerce électronique en dernière étape). Peut s’agir de modules préfabriqués en parcs d’entreprises, d’hôtels pour opérateurs ou de mini-hubs en tours et PoPs.
Exemples : AtlasEdge, EdgeConneX, Cellnex (infrastructures telco et edge).
4) Entreprise sur site
Centres de données en propriété de l’entreprise, sur leur campus ou site industriel (secteur bancaire, assurance, administration, défense, trading, R&D, IP sensible). Coexistent avec le cloud dans des modèles hybrides (données et charges sensibles on-prem, extensibilité et services gérés dans le cloud).
5) Data Centers des télécoms
Infrastructure nativement opérée pour leur réseau : core mobile, BSS/OSS, plateformes voix et télévisuelles, caches, peering. Sont généralement (sites small), avec des contraintes strictes sur localisation, énergie et résilience pour des missions critiques 24/7.
Disponibilité : Tier et redondances (Uptime Institute)
L’objectif le plus courant pour les nouvelles constructions commerciales et corporatives : conception Tier III (ou équivalent) avec tests complets et une approche d’exploitation orientée IT en continu.
Tableau — Schémas courants de redondance
Efficience : PUE (Power Usage Effectiveness)
PUE = Énergie totale du CPD / Énergie informatique. Plus il se rapproche de 1,00, moins il consomme d’énergie “non-IT” (climatisation, pertes, UPS, éclairage).
Gamme de puissances prévisionnelles (2025)
Tendances T4 2025 redéfinissant le design
Le déploiement massif de rack ≥ 60–120 kW (pouvant atteindre 200–300 kW) avec refroidissement liquide (direct-to-chip, immersion mono- ou bi-phase), manifolds et gestion avancée de l’eau/glycol. Cela nécessite une refonte des salles blanches, distribution de puissance, hauteur sous plafond, structures et protections.
Le vrai « goulot d’étranglement » n’est plus le sol, mais la connexion au réseau. Les transformateurs, cellules et postes électriques 132/220 kV ont des délais longs. Les opérateurs exigent des projets avec approbation électrique anticipée, des grid slots garantis et, de plus en plus, BESS pour peak-shaving ou services réseau.
Pression réglementaire (CSRD, taxonomie UE) et objectif 24/7 électricité sans carbone. De la PUE aux portefeuilles de PPAs, WUE, réemploi thermique, HVO dans les groupes, pilotes d’H₂ et transition vers batteries Li-ion avec cadres NFPA/IEC à jour.
Bibliothèques de conception, salles préfabriquées modulaires, pods réplicables et critères d’ingénierie communs par pays pour déployer rapidement à l’échelle multinationale.
De la vidéosurveillance et périmètre à Zero-Trust en trafic Est-Ouest, microsegmentations, enclaves sécurisées pour IA, contrôles physiques et numériques intégrés (ISO 27001, ISO 22301, EN 50600, PCI DSS, TISAX, ENS en Espagne).
Ce que recherchent aujourd’hui les opérateurs dans un projet
Guide pratique pour investisseurs et propriétaires de projets
Questions fréquentes
Quelle différence pratique entre un hyperscale et un colo ?
L’hyperscale appartient au cloud ou au superopérateur en hébergeant ses propres régions ou plateformes. Il est optimisé pour le volume et la gestion interne. Le colocation est multilocataires : il vend espace, énergie et interconnexion à des tiers (banques, SaaS, clouds, opérateurs télécoms), avec des services de retail (à partir de 1 kW) et de wholesale (salles complètes).
Que signifie réellement “Tier III” et pourquoi est-ce l’objectif habituel ?
Le Tier III garantit maintenabilité simultanée (N+1) : possibilité d’effectuer des interventions programmées sans couper la charge informatique. C’est le point d’équilibre entre coût et disponibilité pour la majorité des usages commerciaux et corporatifs. Tier IV ajoute une tolérance totale aux pannes (2N), avec une complexité accrue, réservée aux missions extrêmes critiques.
Quel PUE est “bon” en 2025 ?
Tout dépend du mix et du climat. Un site neuf en Europe avec un PUE compris entre 1,15 et 1,30 est considéré comme très performant. En rénovation d’infrastructures on-premise, les valeurs 1,6–2,0 restent courantes ; les plans de modernisation visent à réduire de >0,2–0,4 points ces indicateurs par amélioration de la refroidissement, free cooling et UPS haute efficacité.
Quelle densité par rack pour IA ?
Pour une utilisation classique, prévoir 10–20 kW/rack. En IA de nouvelle génération, planifier 40–80 kW/rack comme baseline, avec des réserves pour 100–150 kW ou plus avec refroidissement liquide. La complexité et le coût augmentent surtout avec électricité, climatisation et distribution d’eau, plus que par le serveur en lui-même.
source : LinkedIn
Info Cloud
le dernier
Typologies de centres de données en 2025 : de l’hyperéchelle à la frontière edge, ce qu’ils construisent, comment ils sont exploités et ce que réclament les projets
AMD, Cisco et HUMAIN annoncent une coentreprise pour déployer jusqu’à 1 GW d’infrastructure IA d’ici 2030
NVIDIA établit de nouveaux records : 57,0 milliards de dollars de revenus en un trimestre grâce à la ruée vers l’IA
Dell renforce sa « usine d’IA » pour les entreprises : plus d’automatisation, plus de performance et un tournant clair vers le sur site
Atos amène l’IA agentique sur Azure : naissance de l' »ingénieur autonome de données et d’IA » pour les entreprises
L’Europe accélère son engagement pour le nucléaire propre : ainsi naît l’Alliance Industrielle des Petits Réacteurs Modulaires