Meta achète des millions de cœurs Graviton à AWS pour accélérer son IA générative

Meta achète des millions de cœurs Graviton à AWS pour accélérer son IA générative

Meta a signé un accord avec Amazon Web Services pour intégrer des dizaines de millions de cœurs AWS Graviton dans son infrastructure informatique. Cette initiative renforce une tendance qui commence à prendre de l’ampleur dans le secteur : l’intelligence artificielle ne dépend plus uniquement des GPU. À mesure que les modèles deviennent des systèmes capables de raisonner, rechercher, générer du code et coordonner des tâches, la demande en CPU performants explose également.

Ce partenariat positionne Meta parmi les principaux clients mondiaux de Graviton et consolide une relation de longue date avec AWS. L’opération s’inscrit dans la stratégie de Meta pour bâtir une infrastructure robuste adaptée à sa prochaine génération d’intelligence artificielle, notamment pour les charges de travail orientées agents, où les systèmes ne se contentent pas de répondre, mais exécutent des processus complexes en plusieurs étapes.

L’IA agentique requiert aussi des CPU, pas seulement des GPU

Depuis toujours, la course à l’IA s’est concentrée sur l’utilisation des GPU. NVIDIA est devenu le symbole de l’entraînement des grands modèles, et une grande partie de l’investissement des hyper-scalers s’est orientée vers des clusters d’accélérateurs. Cependant, cela ne raconte qu’une partie de l’histoire. Lorsqu’un système d’IA doit gérer des millions ou des milliards d’interactions, rechercher de l’information, faire appel à des outils, générer du code ou coordonner des agents en temps réel, la CPU reprend sa place centrale.

Ce contexte explique l’intérêt du partenariat entre Meta et AWS. Selon Amazon, le déploiement initial comportera des dizaines de millions de cœurs Graviton, avec une possibilité d’extension en fonction des besoins croissants de Meta. Ces processeurs seront déployés sur diverses charges de travail, y compris celles liées à leurs efforts en intelligence artificielle.

La différence est majeure. La formation d’un grand modèle nécessite souvent des GPU ou des accélérateurs spécialisés. Cependant, exécuter des services d’IA à grande échelle, orchestrer des agents, traiter des requêtes ou gérer des flux complexes dépend beaucoup plus de la CPU, de la mémoire, du réseau et de l’efficacité énergétique. En somme, l’IA générative est construite dans des usines de puissance de calcul à base d’accélérateurs, mais de nombreuses fonctions quotidiennes tournent dans des couches de calcul généraliste très optimisées.

Meta l’a expliqué en termes de diversification. Santosh Janardhan, responsable de l’infrastructure de l’entreprise, a souligné que diversifier ses sources de puissance de calcul est une priorité stratégique, notamment à mesure que Meta développe son infrastructure d’IA. De son côté, AWS voit dans cet accord une validation de sa stratégie d’architecture basée sur ses propres processeurs.

Graviton5 : 192 cœurs et une claire orientation vers Arm

Au cœur de cette annonce se trouve Graviton5, la nouvelle génération de processeurs conçus par AWS. Comportant 192 cœurs, dotée d’un cache cinq fois plus large que la génération précédente et, selon Amazon, capable de réduire jusqu’à 33 % la latence entre cœurs, cette puce offre également jusqu’à 25 % de performance supplémentaire par rapport à Graviton4.

Ce saut ne s’explique pas uniquement par le nombre de cœurs. Les charges agentiques peuvent générer de nombreux processus simultanés, des appels à des services externes, des requêtes, des inférences auxiliaires ou des opérations de coordination. Dans ce contexte, une mémoire cache plus grande, une bande passante accrue et une latence réduite entre composants peuvent faire toute la différence en termes de coût et de performance, surtout lorsqu’on déploie des millions de cœurs.

Graviton5 est fabriqué en technologie 3 nanomètres et repose sur AWS Nitro System, l’architecture d’AWS qui sépare certaines fonctions de virtualisation, de réseau et de stockage en matériel et logiciels dédiés. Cela permet d’offrir à la fois des instances en mode nu et des environnements virtualisés avec un accès efficace au matériel, une particularité particulièrement importante pour les grands clients disposant déjà de couches de virtualisation, d’automatisation et de déploiement.

Un autre aspect notable est le support de l’Elastic Fabric Adapter, technologie d’AWS facilitant une communication à faible latence et haute bande passante entre instances. Dans les déploiements distribués en IA, le réseau peut devenir un goulet d’étranglement aussi critique que le processeur. Si de nombreux nœuds doivent collaborer, leur communication peut peser autant que la puissance brute de chaque processeur.

Le choix de Graviton confirme aussi l’essor d’Arm dans le centre de données. Pendant des années, l’architecture x86 a dominé la majorité de la informatique d’entreprise. AWS a commencé à faire évoluer cette dynamique avec ses propres puces Arm, d’abord comme une alternative offrant un meilleur rapport coût/performance pour les charges cloud générales, puis comme une option pour les infrastructures d’IA à grande échelle.

AWS renforce sa position face à la dominance des GPU

Pour AWS, cet accord avec Meta intervient à un moment clé. L’entreprise investit depuis plusieurs années dans ses propres puces, notamment avec Graviton pour les CPU, mais aussi avec Trainium et Inferentia pour l’entraînement et l’inférence en IA. La société rivalise dans un marché où Microsoft, Google et d’autres hyper-scalers conçoivent également leur propre silicium pour réduire les coûts, améliorer l’efficacité et diminuer leur dépendance à des fournisseurs externes.

Le message d’AWS est clair : tout le calcul en IA ne doit pas nécessairement passer par les GPU. Dans certains scénarios, un CPU adapté à ses charges peut offrir de meilleures performances à un coût moindre et une efficacité énergétique accrue. Cela devient crucial lorsque les entreprises passent de l’expérimentation à l’exploitation de services avec des millions d’utilisateurs, une forte simultanéité et des exigences de réponse en continu.

Pour Meta, cela paraît aussi évident. La société a besoin d’une capacité de calcul considérable pour alimenter ses produits d’IA, depuis les assistants jusqu’aux fonctionnalités intégrées dans Facebook, Instagram, WhatsApp, ainsi que pour ses appareils et ses outils destinés aux créateurs ou aux annonceurs. En s’appuyant sur AWS Graviton, Meta peut diversifier son infrastructure et réduire sa dépendance aux GPU ou à ses propres centres de données.

Le volet énergétique n’est pas non plus négligeable. La demande accrue en calcul pour l’IA met une pression supplémentaire sur les centres de données, les réseaux électriques et les budgets d’investissement. AWS insiste sur le fait que Graviton5 offre des améliorations de performance tout en maintenant une haute efficacité énergétique. Pour des sociétés comme Meta, engagées à respecter des objectifs de durabilité tout en augmentant leur capacité IA, chaque gain en performance par watt compte.

Ce partenariat n’altère pas immédiatement la répartition du marché des puces, mais envoie un signal important. Les grandes plateformes commencent à concevoir leurs architectures IA comme une combinaison d’accélérateurs, de CPU spécialisés, de réseaux rapides, de stockage distribué et de logiciels d’orchestration. Bien que la GPU reste essentielle pour la formation et l’exécution de nombreux modèles, la couche permettant de transformer ces modèles en services massifs sera de plus en plus diversifiée.

Pour Meta, Graviton représente une opportunité d’accroître sa capacité et sa flexibilité. Pour AWS, c’est la preuve que sa stratégie de processeurs propres peut séduire l’un des plus grands consommateurs mondiaux d’infrastructure IA. Et pour le secteur, c’est un signe que la prochaine phase de l’intelligence artificielle dépendra autant des chips les plus visibles que des couches de calcul en arrière-plan, souvent hors du regard.

Questions fréquentes

Que signifient l’accord entre Meta et AWS ?
Meta intégrera des dizaines de millions de cœurs AWS Graviton dans son infrastructure pour supporter des charges IA, y compris celles liées à l’IA agentique.

Qu’est-ce qu’AWS Graviton ?
AWS Graviton est une famille de processeurs basés sur Arm conçus par Amazon Web Services pour exécuter des charges cloud avec de hautes performances, une efficacité énergétique optimale et un meilleur contrôle des coûts.

Pourquoi Meta a-t-elle besoin de CPU pour l’IA ?
Parce que de nombreuses charges d’IA agentique, telles que le raisonnement en temps réel, la génération de code, la recherche ou la coordination d’agents, dépendent fortement de la CPU, du réseau et de la mémoire, en complément des GPU.

Graviton remplace-t-il les GPU dans l’IA ?
Pas exactement. Les GPU restent essentiels pour l’entraînement et l’exécution de nombreux modèles. Graviton couvre d’autres types de charges, notamment celles qui nécessitent un calcul généraliste efficace à grande échelle.

le dernier