ARM souhaite que la conversation sur l’intelligence artificielle (IA) ne se limite plus uniquement aux GPU. La société britannique, connue depuis des décennies pour la licence d’architectures efficaces pour mobiles, dispositifs embarqués et chips personnalisés, augmente la voix lorsqu’il s’agit de centres de données avec une idée précise : la prochaine grande bataille ne se jouera pas seulement en termes de ventes de processeurs, mais en nombre de cœurs CPU déployés pour orchestrer, alimenter et gérer des systèmes d’IA de plus en plus complexes.
Rene Haas, le CEO d’Arm, a affirmé lors de la dernière conférence sur les résultats de l’entreprise que la croissance de l’IA agentique multipliera la nécessité de CPU dans les centres de données. Selon lui, les agents IA ne se contentent pas d’exécuter une requête ponctuelle, mais orchestrent des tâches, déplacent des données, gèrent la mémoire, coordonnent des accélérateurs et lancent des processus en parallèle. Dans ce contexte, Arm envisage un avenir proche avec des puces de 256, voire 512 cœurs, une chiffre qui il y a peu d’années reléguait plus à la supercalculabilité qu’à une infrastructure commerciale.
Le CPU revient au cœur de l’IA
Le message d’Arm intervient à un moment où le marché commence à corriger une vision trop simplifiée : l’infrastructure IA ne repose pas uniquement sur les GPU. Les GPU et accélérateurs spécialisés restent la composante la plus visible, notamment pour la formation et l’inférence massives, mais ils nécessitent une orchestration autour de CPU. Ces CPU jouent le rôle de nœuds de contrôle, coordonnent les flux de travail, préparent les données, gèrent le réseau, la sécurité, la mémoire, le stockage et la planification des tâches.
Arm maintient que les centres de données auront besoin de plus de quatre fois la capacité CPU actuelle à mesure que les agents IA se développent. La société estime que cette évolution pourrait ouvrir un marché d’une valeur de plus de 100 milliards de dollars pour les CPU dans les centres de données d’ici 2030. De son côté, AMD a revu à la hausse ses prévisions de marché pour les serveurs CPU, anticipant plus de 120 milliards de dollars pour cette même année, avec un taux de croissance annuel supérieur à 35 % stimulé par la demande en infrastructure IA.
Le chiffre de 500 cœurs ne représente pas encore un produit final avec une date ou une marque commerciale, mais plutôt un horizon technique évoqué par Haas. Lors d’un appel avec des analystes, le dirigeant a mentionné que la CPU AGI d’Arm dispose déjà de 136 cœurs, contre 88 cœurs pour la Vera de NVIDIA, et a indiqué qu’il pouvait envisager des designs de 256 ou 512 cœurs dans les prochaines années. La clé, selon Arm, ne réside pas seulement dans l’augmentation du nombre brut, mais dans l’efficacité par cœur.
Ce détail est essentiel. Parler d’une « CPU de 500 cœurs » peut sembler spectaculaire, mais il ne s’agit pas encore d’un lancement officiel d’un chip spécifique pour 2030. C’est plutôt un signal stratégique : Arm croit que le marché de l’IA exigera des processeurs généralistes dotés de centaines de cœurs, et que son architecture possède un avantage lorsqu’il s’agit d’augmenter l’efficacité, la densité et la consommation d’énergie.
Arm face à x86 : moins de dépendance et plus de personnalisation
La lutte fondamentale est contre la domination historique de x86 sur les serveurs, secteur contrôlé depuis des décennies par Intel, et, de plus en plus, par AMD. Arm ne compete pas seulement en performance. Elle propose un modèle d’architecture en licence qui permet à de grands clients de concevoir leurs propres chips ou d’adopter des solutions adaptées à des charges très spécifiques.
Les hyperscalers entrent en jeu. AWS développe depuis des années le projet Graviton. Google a présenté Axion. Microsoft travaille avec Cobalt. NVIDIA utilise des CPU Arm dans Vera. Selon Arm, Amazon, Google et NVIDIA intègrent déjà des CPU basées sur Arm dans leurs plateformes d’accélération pour l’IA. La lecture est claire : les grands acteurs du cloud ne veulent pas dépendre exclusivement d’Intel ou AMD pour toutes leurs couches de calcul.
Cela ne signifie pas que x86 va disparaître. AMD connaît un de ses meilleurs moments dans les serveurs avec EPYC, et Intel conserve une base installée énorme, des relations d’affaires solides et une capacité industrielle propre. Mais cela indique que le marché devient de plus en plus fragmenté. Autrefois, beaucoup d’entreprises achetaient des serveurs relativement standard. Aujourd’hui, les principaux acteurs conçoivent leur infrastructure comme un produit sur-mesure : CPU, accélérateurs, réseau, mémoire, stockage, refroidissement et logiciel sont optimisés comme une seule entité.
Arm souhaite jouer un rôle central dans cette nouvelle architecture. Sa stratégie ne se limite plus à vendre des IP pour que d’autres fabriquent des chips. Avec la CPU AGI d’Arm, la société fait un saut vers la conception de silicium propre pour centres de données, tout en maintenant ses activités traditionnelles de licences et de royalties. Il s’agit d’un changement délicat, qui peut générer des tensions avec certains clients qui conçoivent aussi leurs propres chips Arm, mais l’entreprise insiste sur le fait que ces activités sont complémentaires.
Haas a lui-même indiqué qu’Arm prévoit déjà plus de 2 milliards de dollars de demandes pour sa CPU AGI lors des exercices fiscaux 2027 et 2028, soit plus du double de ce qui avait été initialement annoncé. Cependant, Reuters a souligné qu’Arm disposerait de la capacité pour couvrir le premier objectif de 1 milliard de dollars, mais pas encore le second, indiquant que la demande existe, mais que la chaîne d’approvisionnement demeure une contrainte.
Les cœurs CPU ne sont pas des cœurs GPU
Il faut manier avec précaution la comparaison entre CPU et GPU. Un noyau CPU n’est pas équivalent à un CUDA core, un shader, un Tensor Core ou une unité spécialisée d’un GPU moderne. Ils ont des usages spécialisés, des modèles de parallélisme différents et une relation distincte entre contrôle, latence, mémoire et calcul massif.
Arm ne suggère pas que « les CPU surpasseront les GPU ». Plutôt, la société indique qu’alors que la proportion physique entre CPU et GPU pourrait ne pas énormément changer, la relation en termes de déploiement de cœurs CPU déployés pourrait fortement augmenter. Dans de grandes salles de data dédiées à l’IA, on pourrait voir des racks entiers de CPU dédiés à l’orchestration, la planification, la gestion des agents et l’inférence auxiliaire, à côté de racks d’accélérateurs.
L’exemple de NVIDIA Vera illustre cela. Haas a évoqué le rack Vera de NVIDIA, avec 256 chips Vera de 88 cœurs dans un rack refroidi par liquide de 200 kW, conçu pour fonctionner avec les systèmes Vera Rubin. Ce type d’architecture montre que même NVIDIA, symbole de l’ère GPU, renforce la couche CPU autour de ses plateformes d’IA.
La raison en est simple : les agents IA ne sont pas uniquement de grands multiplications matricielles. Ils nécessitent aussi logique, coordination, gestion de mémoire, exécution d’outils, appels API, interaction avec bases de données, sécurité, gestion des files d’attente, tâches parallèles et décisions en chaîne. Pour ces charges, de nombreuses CPU efficaces peuvent être aussi importantes que les accélérateurs exécutant des modèles.
Impacts pour les serveurs, le cloud et les ordinateurs personnels
Dans le secteur des centres de données, la tendance va vers des chips de plus en plus denses, avec davantage de cœurs, mémoire, bande passante, et des designs optimisés pour l’efficacité par rack. La métrique-clé ne sera plus uniquement la performance par socket, mais aussi le rendement par watt, par rack, par dollar investi, et par charge IA réelle.
Pour les clients d’entreprise, cela se traduit par plus d’options. Il y aura des instances cloud basées sur x86, Arm, accélérateurs propriétaires, et des combinaisons de plus en plus spécifiques. Les entreprises ne vont probablement pas acheter une CPU de 512 cœurs, mais consommeront des services cloud construits sur cette architecture. La décision se déplacera vers le coût par tâche, la latence, la compatibilité logicielle, et l’efficacité énergétique.
Pour le marché des PC et portables, le message est différent. La course aux 500 cœurs concerne le centre de données, pas la machine personnelle. Sur ces dispositifs, Arm continuera à promouvoir Qualcomm, Apple et autres partenaires, avec un accent sur l’autonomie, l’IA locale, et des designs efficaces. Il n’aurait pas de sens de transférer directement une CPU à plusieurs centaines de cœurs dans un portable. Ce sont des marchés différents, même s’ils partagent l’architecture et des outils de développement.
Le défi pour Arm est de prouver qu’elle peut évoluer sans perdre les avantages qui ont fait sa réussite. Plus de cœurs impliquent plus de complexité : mémoire, cohérence, interconnexion, software, compilateurs, planification. Le hardware n’est utile que si l’écosystème peut l’exploiter correctement. Sur les serveurs, x86 conserve une avance en compatibilité, mais Linux, Kubernetes, bases de données, runtimes modernes, et charges cloud-native réduisent cette barrière pour Arm.
Le mouvement d’Arm est audacieux, car il intervient à un tournant majeur. L’IA agentique n’augmente pas seulement la demande en GPU. Elle redonne aussi un rôle central à la CPU en tant que cerveau de coordination de l’infrastructure. Si Arm parvient à convertir efficacité et personnalisation en part de marché, Intel et AMD auront un concurrent plus gênant sur le terrain le plus lucratif : le centre de données.
La CPU de 512 cœurs n’est pas encore un produit commercial, mais une indication claire de la direction de l’industrie. La tendance est nette : plus de cœurs, plus d’efficacité, plus d’intégration, et une bataille qui se déplace de l’architecture serveur traditionnelle vers celle du contrôle global de l’infrastructure IA.
Questions fréquemment posées
Arm a-t-il officiellement annoncé une CPU de 500 cœurs ?
Non, pas comme un produit concret. Rene Haas, PDG d’Arm, a évoqué que des designs de 256 ou 512 cœurs sont envisageables dans les années à venir, dans l’évolution des CPU pour centres de données et IA.
Pourquoi l’IA nécessite-t-elle autant de CPU si les GPU existent déjà ?
Les GPU effectuent la majorité des calculs intensifs, mais les CPU coordonnent, gèrent la mémoire, les données, le réseau, la sécurité, l’orchestration et les agents. L’IA agentique amplifie significativement cette charge généraliste.
Arm peut-elle réellement concurrencer Intel et AMD sur le marché des serveurs ?
Oui, notamment dans le cloud et l’hyperscale, où des CPU Arm sur mesure comme AWS Graviton, Google Axion, Microsoft Cobalt ou NVIDIA Vera sont déjà opérationnels. Cependant, x86 reste très présent dans l’entreprise et les serveurs traditionnels.
Voyons-nous des CPU de 500 cœurs dans les portables ?
Ce n’est pas prévu. Ces échelles concernent le centre de données. Sur portable et PC, Arm ciblera surtout l’efficience, l’autonomie et l’IA locale avec des circuits beaucoup plus modestes.
via : MyDrivers
Comment prendre soin de votre ordinateur portable : guide complet pour protéger votre investissement technologique