Arm double la demande prévue de son CPU AGI pour les centres de données d’IA

Arm double la demande prévue de son CPU AGI pour les centres de données d'IA

Arm a renforcé considérablement ses attentes concernant son premier processeur conçu en interne pour les centres de données. La société annonce désormais une visibilité de plus de 2 milliards de dollars de demande client pour son ARM AGI CPU pour les exercices fiscaux 2027 et 2028, soit plus du double de ce qui avait été communiqué lors de sa présentation en mars. Ce chiffre intervient seulement quelques semaines après qu’Arm a annoncé un changement historique dans son modèle économique : en plus de licencier la technologie et de vendre des sous-systèmes informatiques, la société propose désormais également des puces de silicium conçues en interne.

Il est important de ne pas confondre cette estimation avec des revenus déjà comptabilisés. Arm parle ici de la demande du marché et de la visibilité commerciale, non de ventes concrètes réalisées. Ce distinguo est crucial, car le CEO Rene Haas a lui-même reconnu que l’entreprise dispose d’une capacité assurée pour répondre à la première tranche de 1 milliard de dollars, mais n’a pas encore consolidé suffisamment d’approvisionnement pour couvrir le second volume de demande. La réaction en bourse a reflété cette tension : si les résultats et les prévisions de revenus étaient positifs, ils ont été partiellement éclipsés par des doutes sur la capacité de production du nouveau chip.

Une avancée historique : Arm passe de la licence IP à la vente de silicium

Depuis des décennies, Arm a été une des entreprises les plus influentes du secteur sans fabriquer ni vendre de processeurs complets sous sa propre marque. Son activité repose sur la license d’architectures et d’IP à des fabricants tels qu’Apple, Qualcomm, NVIDIA, Amazon, Microsoft ou MediaTek, qui conçoivent ensuite leurs propres chips et acquittent des royalties. Avec le AGI CPU, Arm entre dans un domaine différent : celui d’offrir un processeur fini destiné aux centres de données, sans abandonner son modèle traditionnel de licences.

La société présente cette initiative comme une extension naturelle de sa plateforme. Les clients peuvent continuer à consommer la technologie Arm via des IP, des sous-systèmes informatiques ou, désormais, par le biais de silicium prêt à être intégré dans des serveurs. C’est une façon d’accélérer l’adoption sur un marché où le délai de déploiement devient critique. Les centres de données dédiés à l’IA ont besoin de capacités immédiates, pas dans trois cycles de conception.

Le AGI CPU est conçu pour des charges de travail liées à l’IA agentique, sans pour autant remplacer les GPU ou autres accélérateurs spécialisés. Son rôle principal est de coordonner, alimenter et gérer des systèmes distribués où des milliers de tâches s’exécutent en continu. Concrètement, ces processeurs agiront comme moteurs d’orchestration aux côtés d’accélérateurs IA, en gérant le contrôle, les API, les services, les agents, le traitement parallèle et la communication entre composants.

L’architecture s’appuie sur Arm Neoverse V3. Selon la documentation d’Arm, le chip peut comporter jusqu’à 136 cœurs, avec 2 Mo de cache L2 par cœur, supporte la DDR5-8800, offre jusqu’à 6 Go/s de bande passante mémoire par cœur, une latence mémoire inférieure à 100 ns, 96 lignes PCIe Gen6 et CXL 3.0 pour l’expansion et le pooling de mémoire. La société évoque un TDP de 300 W, avec des modèles pensés pour une forte densité en rack, en configurant notamment des modèles 1U refroidés par air ou liquide.

Cerebras, OpenAI et autres clients stimulent la demande

Arm indique que Cerebras, OpenAI, Positron et Rebellions intègrent le AGI CPU à des systèmes combinant accélérateurs. La société cite aussi Verda, fournisseur européen de cloud IA, comme client prévoyant de déployer ce processeur pour l’orchestration d’IA agentique. De plus, plusieurs systèmes commerciaux sont déjà disponibles à la commande auprès de partenaires tels qu’ASRock, Lenovo, Quanta et Supermicro.

La présence de ces acteurs explique en partie l’engouement généré. OpenAI et Cerebras représentent deux extrêmes très visibles du marché IA : l’un comme développeur de modèles et de services de référence, l’autre comme fournisseur de systèmes de calcul spécialisés. Positron et Rebellions ciblent la nouvelle génération d’accélérateurs alternatifs, tandis que Verda propose une approche centrée sur le cloud européen d’IA et la souveraineté numérique.

Arm insiste également sur le soutien de plus de 50 entreprises dans l’expansion de sa plateforme silicium, parmi lesquelles AWS, Broadcom, Google Cloud, Marvell, Microsoft, Micron, NVIDIA, Oracle, Samsung, SK Hynix et TSMC. Le message est clair : Arm souhaite devenir une référence commune pour l’infrastructure IA, et non pas un concurrent isolé face à Intel ou AMD.

Le contexte lui est favorable : Amazon développe depuis plusieurs années des CPU Graviton basées sur Arm pour AWS. Google a avancé avec sa plateforme Axion. Microsoft a lancé Cobalt. NVIDIA utilise des CPUs Arm dans certains de ses systèmes Grace et Grace Hopper. Cette adoption a permis à Arm d’affirmer que sa part de marché sur les CPU dans les grandes usines de cloud est désormais d’environ 50 %. Bien qu’il s’agisse d’une déclaration significative, celle-ci dépend de la manière dont on mesure le calcul et quelles charges entrent dans cette estimation.

L’IA agentique reconfigure le rôle du CPU

L’approche d’Arm repose sur une idée de plus en plus affirmée : l’IA agentique ne requiert pas seulement des GPU. Un système d’agents ne se limite pas à une réponse simple à une question. Il peut planifier des tâches, faire appel à des outils, consulter des bases de données, coordonner des processus, exécuter des codes, communiquer avec d’autres services et maintenir des flux de travail pendant de longues périodes. Ce type d’opération nécessite à la fois des accélérateurs et de nombreuses CPUs efficaces, prévisibles et bien connectées.

Dans les grands clusters IA, le CPU ne disparaît pas. Il devient un élément de coordination essentiel. Si le CPU est lent, qu’il consomme trop ou qu’il ne scale pas efficacement, cela peut réduire l’utilisation des accélérateurs, dont le coût unitaire peut atteindre plusieurs dizaines de milliers de dollars. Arm insiste donc sur le rendement par rack et sur l’efficacité énergétique. La société avance que son AGI CPU peut offrir plus du double de performance par rack comparé aux plateformes x86, tout en réduisant jusqu’à 10 milliards de dollars d’investissement en CAPEX par gigawatt de capacité de centre de données. Il faut toutefois prendre cette estimation comme une projection du fabricant, pas une règle universelle applicable dans tous les scénarios.

Cet enjeu comporte également une dimension concurrentielle : Intel et AMD dominent encore largement le marché des CPU pour serveurs, mais les grands centres de données ont montré qu’ils pouvaient adopter des architectures alternatives si celles-ci permettent un meilleur coût global, efficacité et contrôle sur la pile technologique. Arm veut tirer parti de cette opportunité avant que l’architecture IA ne se stabilise à nouveau autour d’un acteur dominant.

Tout n’est pas encore résolu. Entrer dans la fabrication de silicium impose de gérer la chaîne d’approvisionnement, la production, le stock, le support technique, les certifications, ainsi que la relation avec les OEM, ce qui diffère de la simple licence IP. Arm a évité pendant plusieurs années le risque industriel direct associé à la vente de chips complets. Aujourd’hui, il doit le gérer, au moment où la demande pourrait dépasser la capacité disponible.

Il faudra aussi surveiller la réaction de ses clients historiques : Arm doit vendre des AGI CPU sans écorner la confiance de ceux qui licencient son IP pour créer leurs propres processeurs. La société tente de gérer cette tension en proposant différentes voies : IP pour les concepteurs, sous-systèmes pour accélérer le développement, et chips complets pour un déploiement rapide.

Les résultats financiers de l’entreprise soutiennent ce discours. Arm a clôturé son quatrième trimestre fiscal 2026 avec 1 490 millions de dollars de revenus, en progression de 20 % sur un an, notamment boostés par la croissance dans le secteur des centres de données. Cependant, cette nouvelle étape dépendra de plus que d’une bonne présentation : Arm aura besoin de capacités de fabrication, du soutien des OEM, de la confiance des hyperscalers, ainsi que de preuves concrètes de performance dans des déploiements IA.

Le AGI CPU ne transforme pas Arm en concurrent direct de NVIDIA du jour au lendemain. Son terrain reste différent. Mais cette avancée positionne la société dans une zone stratégique plus centrale de l’infrastructure IA : la couche d’orchestration, de connexion et de maintien en fonctionnement des systèmes où les accélérateurs effectuent le travail intensif. Si l’IA agentique devient une charge dominante dans le cloud, cette couche d’orchestration pourrait valoir bien plus que ce qu’on imaginait il y a seulement quelques années.

Questions fréquentes

Qu’est-ce que l’Arm AGI CPU ?
C’est le premier processeur à produire en interne chez Arm, conçu pour les centres de données IA et les charges de travail IA agentique. Il s’appuie sur l’architecture Arm Neoverse V3 et peut comporter jusqu’à 136 cœurs.

Arm a-t-elle doublé ses estimations de demande ou de revenus anticipés ?
Arm a annoncé une demande client dépassant 2 milliards de dollars pour les exercices fiscaux 2027 et 2028. Il ne s’agit pas encore de revenus comptabilisés, mais d’une visibilité commerciale et de commandes ou engagements attendus.

Quelles entreprises utilisent ou intègrent l’AGI CPU ?
Arm mentionne Cerebras, OpenAI, Positron, Rebellions et Verda comme clients ou partenaires intégrant l’AGI CPU avec des accélérateurs et plateformes IA. Des systèmes commerciaux sont également disponibles via des fabricants comme ASRock, Lenovo, Quanta et Supermicro.

L’AGI CPU concurrence-t-elle directement les GPU de NVIDIA ?
Pas directement. Il est destiné à coordonner les charges, gérer les agents, alimenter les accélérateurs et faire fonctionner les services IA à grande échelle. Les GPU et accélérateurs restent essentiels pour le calcul intensif.

le dernier