Meta a renforcé sa collaboration avec CoreWeave à travers un nouveau contrat d’infrastructure dédié à l’IA, d’une valeur approximative de 21 milliards de dollars avec une échéance fixée à décembre 2032. Annoncée conjointement par CoreWeave et détaillée dans un document soumis à la SEC, cette opération consolide la position de l’entreprise en tant que l’un des principaux fournisseurs de capacités cloud spécialisées dans la gestion de charges massives d’Intelligence Artificielle.
Ce partenariat n’est pas construit à partir de zéro. Selon la déclaration réglementaire, la nouvelle commande a été signée le 31 mars 2026 dans le cadre d’un contrat-cadre existant entre les deux sociétés, daté du 10 décembre 2023. Le montant de 21 milliards de dollars couvre à la fois l’accès à une capacité de calcul élargie jusqu’au 20 décembre 2032 et l’exercice d’une option antérieure permettant d’accéder à une capacité supplémentaire sous contrat, valable jusqu’au 10 avril 2032.
Sur le plan technique, la capacité allouée sera déployée en plusieurs sites et comprendra notamment certaines des premières intégrations de la plateforme NVIDIA Vera Rubin, la prochaine grande étape de l’infrastructure accélérée de NVIDIA, conçue par Jensen Huang. CoreWeave n’a pas précisé publiquement le nombre de systèmes ou leur configuration exacte dans le cadre de cet accord, mais le fait que Meta bénéficie d’un accès anticipé à Rubin souligne à quel point la compétition pour dominer la nouvelle vague de la puissance informatique en IA se joue bien en amont de la disponibilité massive du matériel sur le marché.
Une stratégie claire : la priorité à l’inférence
La déclaration de CoreWeave met en lumière un concept de plus en plus crucial dans l’industrie : l’inférence. Meta utilisera la plateforme cloud de CoreWeave pour faire évoluer ses capacités en inference, c’est-à-dire l’exécution effective de modèles déjà entraînés en production. Cela revêt une importance capitale, car pendant longtemps, la conversation autour de l’IA s’était concentrée presque exclusivement sur l’entraînement de grands modèles, tandis que désormais, le véritable défi se situe dans la capacité à faire répondre, générer du contenu ou fournir des services à des millions d’utilisateurs en temps réel.
Ce changement de focalisation impacte profondément l’économie de l’infrastructure : entraîner un modèle de fondation demeure coûteux, mais le servir à grande échelle nécessite encore plus de stabilité opérationnelle, d’efficacité énergétique, de faible latence et une chaîne d’approvisionnement GPU plus robuste. Pour Meta, qui intègre l’IA dans des produits comme Facebook, Instagram, WhatsApp, Messenger ou ses lunettes intelligentes, garantir la capacité en inférence n’est pas un caprice mais une nécessité industrielle. Reuters avait indiqué que la société prévoit un investissement en capital pour 2026 compris entre 115 et 135 milliards de dollars, précisément pour accélérer son infrastructure IA.
CoreWeave s’affirme face aux géants du cloud traditionnel
Ce partenariat confirme une tendance croissante : l’émergence de clouds spécialisés en IA qui rivalisent pour une portion du marché autrefois presque exclusivement réservé aux grands hyperé scalaires. CoreWeave se positionne comme un « cloud IA » conçu spécifiquement pour ces charges, et non comme une infrastructure généraliste adaptée à la fièvre de l’IA après coup. Selon sa propre communication, cette spécialisation lui permet d’attirer des grands laboratoires, startups et géants de la tech.
Récemment, CoreWeave a encore renforcé sa visibilité avec plusieurs annonces majeures. D’abord, cet accord avec Meta, suivi peu après par la signature d’un partenariat pluriannuel avec Anthropic pour soutenir la famille de modèles Claude. La tendance est claire : CoreWeave cherche à se positionner comme une pièce centrale dans l’infrastructure IA, bien au-delà du simple fournisseur opportuniste de GPU en location.
Du point de vue technologique, un autre aspect important est la mise en œuvre distribuée « across multiple locations » mentionnée par CoreWeave. Cela indique une architecture visant à optimiser performance, résilience et scalabilité pour les opérations de Meta. La réalité du marché actuel ne se limite plus à disposer de capacités dans un seul centre de données : les charges de travail en IA de production nécessitent une distribution géographique, une redondance et un réseau capable de manipuler des volumes considérables de données, sans impacter les temps de réponse.
Vera Rubin entre en scène prématurément
La mention de NVIDIA Vera Rubin constitue probablement l’aspect stratégique le plus marquant de cette annonce. NVIDIA a présenté Rubin comme la prochaine plateforme majeure pour l’IA, succédant à Blackwell, avec des performances accrues en entraînement et inférence. La sécurisation par Meta de l’accès à ces premières intégrations via CoreWeave montre deux choses : premièrement, l’accès au matériel de nouvelle génération se verrouille déjà par le biais de contrats pluriannuels ; deuxièmement, des fournisseurs comme CoreWeave jouent désormais un rôle clé pour faire entrer cette nouvelle génération de puces en production, bien avant l’arrivée généralisée sur le marché.
Ce phénomène explique pourquoi le cloud IA devient un secteur si distinct du cloud classique. Ici, la compétition ne porte pas seulement sur la présence géographique ou la gamme de services gérés, mais aussi sur la capacité à obtenir en priorité le matériel le plus convoité, avec une énergie, une connectivité, une refroidissement et des logiciels prêts à le mettre en marche. L’annonce conjointe avec Meta témoigne d’un fort signal de confiance technologique envers CoreWeave.
En définitive, Meta ne se contente pas d’acquérir de la capacité : elle s’assure une place stratégique dans le futur immédiat de son infrastructure IA, en anticipant une inférence en forte croissance et en prenant une avance sur la disponibilité du matériel de nouvelle génération. Pour CoreWeave, il s’agit d’une validation de leur modèle. Pour le secteur, c’est une preuve que la guerre de l’IA se joue autant dans les modèles que dans la maîtrise de la capacité de calcul réelle pour leur fonctionnement.
Questions fréquentes
Quelle est la valeur du nouveau partenariat entre Meta et CoreWeave ?
L’investissement initial se chiffre à environ 21 milliards de dollars, selon CoreWeave et ses documents déposés à la SEC.
Quelle est la durée du contrat entre Meta et CoreWeave ?
L’accès élargi à la capacité se prolonge jusqu’au 20 décembre 2032, avec une option préexistante valable jusqu’au 10 avril 2032.
Dans quel but Meta utilisera-t-elle cette infrastructure ?
CoreWeave indique que Meta l’emploiera principalement pour accroître ses capacités en inférence IA, notamment pour exécuter des modèles en environnement de production.
Quel rôle joue NVIDIA Vera Rubin dans cet accord ?
Une partie de la capacité contractée inclura certaines des premières déploiements de la plateforme NVIDIA Vera Rubin, la prochaine génération d’infrastructure accélérée pour l’IA.