Meta crée « Meta Compute » et prépare une vague de centres de données pour l’IA à l’échelle de gigawatts

Meta crée « Meta Compute » et prépare une vague de centres de données pour l'IA à l'échelle de gigawatts

Meta a radicalement décidé que sa stratégie en intelligence artificielle ne sera plus simplement considérée comme « un projet parmi d’autres » au sein du département infrastructure. La société a instauré une nouvelle division, Meta Compute, chargée de diriger sa prochaine phase d’expansion des centres de données : un plan ambitieux qui, selon des déclarations attribuées à Mark Zuckerberg, vise à construire plusieurs dizaines de gigawatts au cours de cette décennie et aspire à atteindre des centaines de gigawatts ou plus à l’horizon. Si cette feuille de route se concrétise, Meta se positionnerait parmi les acteurs ayant les plus grands besoins énergétiques et capacités de calcul au monde.

Cette nouvelle entité a été créée avec un objectif précis : faire de la capacité de construction une discipline propre à l’entreprise, avec des équipes dédiées à la planification à long terme, aux partenariats fournisseur, aux modèles de financement, et à la coordination avec les gouvernements. L’infrastructure liée à l’IA — et pas seulement le modèle — devient ainsi un facteur stratégique gagnant.

Qu’est-ce que Meta Compute et pourquoi cela compte-t-il ?

Meta Compute représente la manifestation la plus tangible que l’entreprise sépare désormais deux dimensions auparavant fusionnées : d’une part, la course aux modèles et aux talents, et d’autre part, la compétition pour les terrains, l’énergie, le béton, les réseaux et la refroidissement.

La division sera pilotée conjointement par Santosh Janardhan, responsable de l’infrastructure globale chez Meta, et Daniel Gross, qui se concentrera sur la planification des capacités, les alliances stratégiques avec les fournisseurs, et l’approche économique des déploiements. Par ailleurs, l’entreprise a intégré Dina Powell McCormick pour gérer les relations institutionnelles avec les gouvernements et les acteurs « souverains » dans la négociation des déploiements, des investissements, et des financements.

Ce mouvement intervient alors que les grands laboratoires et plateformes technologiques découvrent une réalité parfois dérangeante : acheter des GPUs ne suffit plus. La scalabilité dépend désormais de licences, de la disponibilité électrique, des délais de livraison, des chaînes d’approvisionnement, et de l’acceptation sociale des centres de données.

Contexte : plus de capacité, plus de contrats, et une dépendance accrue à l’énergie

L’annonce s’inscrit dans un schéma récurrent dans le secteur : obtenir de la capacité à tout prix et par tous les moyens. Ces derniers mois, la multiplication des contrats « compute » et des accords d’infrastructure avec des tiers s’estthe amplifiée, en parallèle de l’accélération des projets de campus de données par les grands acteurs technologiques.

Dans le cas de Meta, divers rapports ont esquissé une carte des accords visant à garantir la capacité hors site — allant de fournisseurs spécialisés en GPU cloud à de vastes plateformes — tout en négociant avec d’autres acteurs pour assurer l’approvisionnement et les délais. Parallèlement, la société étudie aussi des formules de financement pour des projets de grande ampleur : des investissements dont le coût dépasse désormais les dizaines de millions pour atteindre souvent plusieurs milliards.

Tableau synthétique : éléments clés du « plan d’expansion » de Meta (sources publiques et rapports disponibles)

Segment Ce qui évolue Importance
Organisation Création de Meta Compute et de nouveaux responsables L’infrastructure devient une stratégie d’entreprise, pas seulement une exécution technique
Capacité Objectif de plusieurs dizaines de GW cette décennie Une échelle comparable à celle des grandes utilités, avec un réel impact sur le marché électrique
Financement Structures de coentreprises et capitaux externes pour les mégaprojets Réduit la pression sur la trésorerie tout en créant des engagements et dépendances
Compute externe Contrats avec fournisseurs de cloud/GPU Favorise la croissance des déploiements pendant la construction des campus propres
Énergie Accords et exploration de sources stables (incluant nucléaire) La puissance électrique demeure le principal goulot d’étranglement

Le grand défi : accélérer la construction sans compromettre la confiance sociétale

Une expansion massive s’accompagne d’un enjeu majeur : les centres de données ne sont plus considérés comme une « infrastructure invisible ». Dans de nombreux territoires, le débat public s’est durci en raison de la consommation électrique, de l’utilisation de l’eau, de l’impact urbain et de la pression sur les réseaux locaux. Plus les projets atteignent des dimensions de centaines de mégawatts, voire de gigawatts, plus chaque permis devient sujet à politisation.

Meta anticipe cette tendance en intégrant des profils spécialisés dans les relations institutionnelles, la négociation avec les gouvernements et la planification à long terme. En clair : pour ériger des centres de données à l’échelle de gigawatts, il ne suffit pas de l’ingénierie ; il faut déployer aussi diplomatie, financements sophistiqués et une communication valorisant les bénéfices locaux.

Ce que signifient « tens of gigawatts »: l’IA entre dans une logique industrielle

Le passage aux gigawatts marque un changement de dimension. Un centre de données « classique » pouvait nécessiter des dizaines de MW ; désormais, la croissance dans l’IA pousse vers des campus mesurés en centrés de centaines de mégawatts, voire en gigawatts.

Ce contexte impose des transformations structurantes :

  • Planification électrique : sous-stations, lignes, contrats à long terme, parfois production dédiée.
  • Chaînes d’approvisionnement : depuis les transformateurs jusqu’aux systèmes de refroidissement et aux équipements réseaux.
  • Modèle économique : financement plus structuré, préventes de capacité, accords pluriannuels.
  • Gouvernance : permis, conformité environnementale, transparence, gestion des oppositions locales.

Meta Compute apparaît ainsi comme une réponse à cette nouvelle réalité : l’IA pousse les entreprises technologiques à fonctionner comme des entreprises industrielles d’infrastructure.


Questions fréquentes

Qu’est-ce que Meta Compute et en quoi diffère-t-il de l’équipe infrastructure classique de Meta ?
Meta Compute est une division créée pour coordonner l’expansion des centres de données liés à l’IA à grande échelle, avec un focus explicite sur la planification de capacité, les partenariats fournisseurs, le financement, et la stratégie de déploiement.

Que signifie construire des centres de données « à l’échelle de gigawatts » ?
Il s’agit de passer de projets typiques de dizaines de MW à des campus nécessitant autant de puissance qu’une ville moyenne. Cela concerne les permis, le réseau électrique, les accords énergétiques, et les délais de construction.

Pourquoi Meta signe-t-elle des accords sur l’énergie (y compris nucléaire) pour ses centres de données ?
Car le défi majeur ne se limite plus au matériel : il s’agit désormais de disposer d’une énergie stable et fiable capable d’alimenter des milliers de GPUs, surtout dans une optique de croissance rapide.

Quels risques cette expansion des data centers comporte-t-elle pour les communautés locales ?
Les principaux points de friction sont la capacité du réseau, la consommation électrique, l’eau pour le refroidissement, l’impact urbain, et la perception des bénéfices locaux face au coût social du projet.

le dernier