Anthropic recrute des talents chez Google pour renforcer l’énergie et les centres de données

Anthropic conserve Mythos et transforme l'IA offensive en une affaire industrielle

Anthropic renforce son offensive en matière d’infrastructure avec une démarche qui révèle beaucoup sur la direction que prend la course à l’Intelligence Artificielle. Sana Ouji, jusqu’à récemment responsable des investissements stratégiques et des partenariats énergétiques pour les centres de données chez Google, a quitté cette société pour rejoindre la nouvelle équipe dédiée à l’énergie chez Anthropic. La propre Ouji a expliqué sur LinkedIn qu’elle collaborera avec Ariel Horowitz et Tim Hughes dans une stratégie énergétique mondiale visant à « évoluer de manière responsable et rapide » pour une gamme ambitieuse de centres de données.

Ce recrutement s’inscrit dans un contexte plus large. Selon DatacenterDynamics, Anthropic optimise depuis plusieurs mois ses recrutements en intégrant des profils d’expérience chez Google et dans le secteur des data centers, afin de construire une organisation de plus en plus solide. Parmi les noms mentionnés figurent Winnie Leung, en charge de l’infrastructure des centres de données ; Liwen Mao, responsable de la conception des centres ; Adam Johnson, responsable électrique ; Zach Miller, en opérations ; ainsi que d’autres profils techniques spécialisés en sécurité et avec une longue expérience chez Google. À ces profils s’ajoutent des cadres comme Tim Hughes, venant de Stack Infrastructure, et Matt Wanner, également recruté chez cette même société.

Ce qui est crucial n’est pas seulement qui arrive, mais pour quelle finalité. Anthropic ne semble plus se contenter d’être un simple consommateur de cloud tiers. Elle construit une capacité interne en énergie, en conception, en exécution et en gestion opérationnelle, visant une ambition bien plus grande : assurer l’approvisionnement électrique, disposer de terrains, garantir la capacité de livraison et maîtriser la gestion opérationnelle — notamment dans un contexte où l’accès à la puissance de calcul devient une arme aussi stratégique que le modèle lui-même. Les offres d’emplois publiques de l’entreprise illustrent cette ambition, avec des rôles tels que « Data Center Portfolio Planning & Execution Lead », « Senior Data Center Capacity Delivery Manager », « Data Center Electrical Engineer » ou encore « Data Center Engineer, Resource Efficiency – Compute Supply ».

Ce renforcement organisationnel s’inscrit dans la continuité des mouvements déjà lancés par Anthropic ces derniers mois. En novembre 2025, la société annonçait un investissement de 50 milliards de dollars dans l’infrastructure de calcul aux États-Unis, en partenariat avec Fluidstack, comprenant des centres de données au Texas et à New York, avec d’autres sites prévus. La société indiquait que ces centres seraient conçus spécifiquement pour ses charges de travail et optimisés pour une efficacité maximale. Fluidstack a confirmé cette opération, précisant qu’elle générerait des centaines d’emplois permanents ainsi que des milliers durant la phase de construction.

De plus, il faut aussi considérer la dimension liée aux puces et à la capacité de calcul contractée. Reuters rapportait en octobre 2025 que Anthropic avait signé un accord avec Google pour plus d’1 gigawatt de capacité basée sur les TPU (Tensor Processing Units), laquelle devrait entrer en service en 2026. En avril 2026, l’entreprise annonçait officiellement un nouvel accord avec Google et Broadcom pour disposer de plusieurs gigawatts de capacités de nouvelle génération basées sur TPU à partir de 2027. Si aucune valeur précise n’a été communiquée dans ce dernier communiqué, d’autres sources évoquent une expansion d’environ 3,5 GW, illustrant l’envergure du projet.

Autrement dit, Anthropic déploie simultanément trois stratégies : premièrement, l’exploitation du cloud avec des hyperscalers tels que Google en volume ; deuxièmement, le développement d’infrastructures dédiées comme la collaboration avec Fluidstack ; troisièmement, la constitution d’une équipe interne capable d’organiser la gestion de l’énergie, la planification du portefeuille, l’exécution et l’exploitation de la capacité — comme le feraient de grands opérateurs de data centers. Cette approche indique que la compétition en IA ne se limite plus aux seuls modèles, mais s’étend désormais aux mégawatts d’énergie, à la chaîne d’approvisionnement et à l’expertise spécialisée.

Le moment choisi est également révélateur. La pression pour sécuriser la puissance de calcul est devenue un enjeu majeur du secteur. Dans un mémo interne relayé par The Verge, OpenAI a critiqué Anthropic pour avoir commis une « erreur stratégique » en ne sécurisant pas suffisamment de capacité, ce qui, selon ce document, entraînerait des limitations d’accès et une expérience moins fiable. Bien que cette critique soit orientée, elle témoigne du fait que le débat sur l’IA a dépassé le stade de la R&D pour devenir une question d’infrastructure massive.

Fait intéressant, Dario Amodei, le fondateur d’Anthropic, a lui-même défendu publiquement une position prudente quant à l’achat massif de capacité de calcul. En février, il avertissait qu’une erreur de croissance ou une évolution plus lente du marché — par exemple, un marché qui croît cinq fois moins vite que prévu — pourrait conduire à la faillite, si l’on a acquis trop de capacité trop tôt. Cette réflexion illustre la complexité du défi actuel : il faut garantir de l’énergie et des centres tout en évitant de se surdimensionner dans un secteur en rapide mutation et difficile à prévoir.

Ce recrutement stratégique de Sana Ouji dépasse donc une simple mobilité professionnelle. Il s’inscrit dans une logique de transformation plus large : Anthropic cherche à professionnaliser ses fonctions énergétiques et infrastructurelles en intégrant des profils issus de Google, du secteur électrique ou de grandes entreprises de data centers. Le message est clair : pour rivaliser au plus haut niveau en IA, il ne suffit plus d’avoir des modèles performants, il faut aussi sécuriser l’environnement — terrains, puissance électrique, puces, délais, et équipes capables de convertir des contrats de plusieurs milliards en capacité concrète et opérationnelle.

Avec du recul, ce mouvement traduit également un changement dans la dynamique du marché. Longtemps, les start-ups technologiques se targuaient d’être légères et de se reposer sur l’infrastructure d’autres. La montée de l’IA générative bouleverse cette logique. Des acteurs comme Anthropic s’apparenteront de plus en plus, dans certains aspects, à de grands opérateurs d’infrastructure : négociation de gigawatts, recrutement de vétérans, gestion de portefeuilles et évaluation de la capacité électrique disponible. Il est possible que cette mutation se révèle tout aussi décisive pour le secteur que l’amélioration des performances des modèles eux-mêmes.

Questions fréquentes

Qui est Sana Ouji et pourquoi son recrutement par Anthropic est-il important ?
Sana Ouji a travaillé plus de six ans chez Google, notamment dans le secteur des investissements stratégiques et des partenariats énergétiques liés aux centres de données. Son arrivée chez Anthropic renforce la nouvelle équipe énergétique de l’entreprise lors de cette phase d’expansion intensive de ses infrastructures.

Que construit Anthropic dans le domaine des centres de données ?
En novembre 2025, la société annonçait une investissement de 50 milliards de dollars en infrastructure IA aux États-Unis avec Fluidstack, comprenant des centres à Texas et New York, avec des projets d’extension ultérieure.

Quel rôle jouent Google et Broadcom dans cette expansion ?
Google a signé en 2025 un accord pour fournir plus d’1 GW de TPU à Anthropic, et en avril 2026, les deux sociétés ont étendu leur partenariat avec Broadcom pour plusieurs gigawatts de capacité de nouvelle génération dès 2027.

Pourquoi l’énergie et les centres de données sont-ils devenus cruciaux pour l’IA ?
L’entraînement et le déploiement de modèles avancés requièrent d’énormes ressources de calcul, dépendant des puces, des centres, de la capacité électrique et des délais d’approvisionnement. La compétitivité en IA repose désormais autant sur cette infrastructure physique que sur la technologie logicielle.

vía : datacenterdynamics

le dernier