Au cours des deux dernières années, la conversation sur l’infrastructure pour l’Intelligence Artificielle a principalement tourné autour des GPU. NVIDIA s’est imposé comme la référence incontournable, les hyper-scalers ont rivalisé pour sécuriser des accélérateurs, et la mémoire HBM est devenue une ressource stratégique. Cependant, la prochaine étape de l’IA pourrait recentrer l’attention sur un composant longtemps considéré comme secondaire dans cette course : le CPU serveur.
La raison en est l’émergence de l’IA agentique. À mesure que les modèles dépassent la simple capacité de répondre à des questions pour exécuter des flux de travail, appeler des outils, coordonner des tâches, interroger des bases de données, déplacer des informations et interagir avec des applications, le besoin de processeurs capables d’orchestrer l’ensemble de ces opérations augmente. Si la GPU reste essentielle pour l’entraînement intensif et l’inférence lourde, le CPU gagne en importance comme couche de contrôle, de coordination et d’exécution générale.
UBS anticipe un marché de CPU bien plus vaste que prévu
Selon une note de UBS relayée par plusieurs médias financiers et technologiques, le marché total potentiel des CPU pour serveurs pourrait passer d’environ 30 milliards de dollars en 2025 à près de 170 milliards en 2030. Une prévision ambitieuse qu’il faut prendre avec précaution, mais qui reflète un changement de perception : l’IA ne consomme pas uniquement des accélérateurs, elle requiert également une capacité de calcul général plus importante pour faire fonctionner ces accélérateurs efficacement.
La thèse de UBS est que les charges agentiques pourraient multiplier par trois à cinq le nombre de cœurs CPU nécessaires par utilisateur et par GPU. Il ne s’agit pas seulement d’héberger des modèles, mais de gérer des milliers ou des millions de petites décisions : préparer le contexte, répartir les tâches, exécuter du code, valider des résultats, router des requêtes, maintenir des sessions, appliquer des permissions et coordonner des agents.
Dans ce contexte, UBS considère que Arm serait le grand bénéficiaire potentiel, pouvant détenir une part de marché de 40 à 45 % des CPU serveurs d’ici 2030. AMD apparaîtrait comme le second acteur naturel grâce à ses processeurs EPYC multicœurs à haute performance par watt. Quant à Intel, bien qu’elle profiterait aussi de cette croissance, elle devra prouver que ses prochaines plateformes peuvent rivaliser en densité, efficacité et coût.
Ceci peut être une source d’inconfort pour Intel, car ce regain d’intérêt pour la CPU ne garantit pas une répartition équitable des bénéfices entre fournisseurs. Si la demande se déporte vers davantage de cœurs, une consommation réduite et des architectures très modulables adaptées aux centres de données IA, Arm et AMD pourraient capter une part plus importante de cette croissance. Intel, qui dominait la CPU serveur depuis des décennies, doit faire face à un marché en expansion mais aussi en mutation.
La CPU comme centre de contrôle de l’IA
Intel a été l’une des premières entreprises à tenter de faire évoluer cette narration. Lors de la présentation de ses résultats du premier trimestre 2026, Lip-Bu Tan a affirmé que la CPU redevenait une composante essentielle de l’ère de l’IA. Selon le PDG d’Intel, la CPU joue désormais un rôle d’orchestration et de plateforme de contrôle critique pour l’ensemble de la pile technologique liée à l’Intelligence Artificielle.
Cette idée rejoint ce que dit également AMD. Lisa Su a souligné lors de la dernière conférence de résultats que l’inférence et l’IA agentique augmentent la demande pour des CPU performants et des accélérateurs. La société a enregistré un chiffre d’affaires de 10,253 milliards de dollars au premier trimestre 2026, en hausse de 38 % sur un an, avec le secteur des data centers en croissance de 57 %, atteignant 5,8 milliards, ce qui en fait désormais son principal moteur de revenus et de profits.
AMD insiste sur le fait que cette nouvelle demande en CPU ne cannibalise pas nécessairement celle des GPU. La compréhension est que les accélérateurs restent indispensables pour exécuter des modèles fondamentaux et des charges intensives, tandis que les agents génèrent du travail supplémentaire pour les CPU. Dans des configurations traditionnelles, la CPU pouvait gérer plusieurs GPU, avec par exemple une CPU pour quatre ou huit accélérateurs. Avec de nombreux agents coordonnant des tâches, cette relation pourrait s’approcher d’un pour un dans certains déploiements.
La différence est cruciale. L’IA générative classique pouvait se limiter à interroger un modèle. L’IA agentique ressemble plus à une chaîne d’actions : interpréter une requête, consulter des documents, appeler une API, générer du code, vérifier un résultat, demander une validation, exécuter un autre outil et produire une réponse. Chaque étape requiert coordination, mémoire, entrée/sortie, réseau et calcul général.
Pourquoi Arm et AMD ont une longueur d’avance
Arm a connu plusieurs années de croissance dans les centres de données, notamment grâce à des fournisseurs cloud qui conçoivent leurs propres puces ou adoptent des architectures plus efficaces. AWS Graviton en est l’exemple le plus visible, mais cette tendance s’est étendue à d’autres environnements où l’efficacité énergétique est aussi importante que la performance brute. Dans le contexte de l’IA agentique, cet avantage peut être encore plus déterminant, car de nombreuses tâches ne nécessitent pas une CPU monolithique à fréquence maximale, mais plutôt de nombreux cœurs efficaces travaillant en parallèle.
Arm positionne ses architectures pour l’infrastructure IA en mettant en avant une meilleure efficacité, une flexibilité accrue dans le déploiement, et la capacité à soutenir des charges agentiques. La société ne fabrique pas ses propres puces, mais licence ses architectures, permettant à des fabricants de serveurs, hyper-scalers et fournisseurs spécialisés de les adapter selon leurs besoins.
De son côté, AMD bénéficie d’une position forte grâce à ses processeurs EPYC. Sa stratégie multicœurs, combinant performance par socket et efficacité énergétique, lui a permis de gagner du terrain dans les serveurs ces dernières années. La société peut aussi assembler CPU EPYC, accélérateurs Instinct, solutions réseau Pensando et plateformes de rack comme Helios, lui permettant de proposer une offre d’infrastructure IA plus complète.
Intel conserve des atouts certains : une base installée importante, des relations industrielles, sa capacité de fabrication en interne, des technologies d’empaquetage avancées, et une feuille de route comprenant des CPU comme la série Coral Rapids. Cependant, la performance dans un marché qui évolue vers plus de cœurs par watt et des architectures adaptées aux charges agentiques dépendra aussi de sa capacité à bien exécuter ses projets.
Le PC local également concerné
La note de UBS soulève une autre tendance : l’IA agentique pourrait stimuler la demande de CPU non seulement pour les serveurs, mais aussi pour les PC de bureau. Des outils comme Claude Code, des assistants de développement, des agents personnels ou des flux d’automatisation s’exécutant sur les ordinateurs des utilisateurs peuvent augmenter les besoins en CPU, mémoire et NPU dans les ordinateurs portables et de bureau.
Cela ne signifie pas que tous les utilisateurs auront besoin de stations de travail haut de gamme. Mais cela indique une bifurcation du marché. Les tâches lourdes resteront dans les data centers, tandis qu’une partie de l’IA quotidienne s’effectuera localement pour préserver la confidentialité, réduire la latence ou maîtriser les coûts. Dans ce contexte, AMD et Intel pourraient aussi tirer avantage, tout en concurrençant Apple Silicon, Qualcomm et d’autres architectures basées sur Arm.
Le défi sera de trouver le bon équilibre entre cloud et dispositif. Les agents plus complexes nécessiteront un accès à de grands modèles, des données d’entreprise et des ressources cloud. Mais de nombreux processus intermédiaires, comme la préparation du contexte, l’automatisation légère, l’analyse locale ou l’exécution de code, peuvent bénéficier d’CPU plus puissants dans l’appareil lui-même.
Une nouvelle architecture pour les centres de données IA
La conséquence majeure est que les centres de données dédiés à l’IA ne seront plus mesurés uniquement par le nombre de GPU. La question deviendra : combien d’accélérateurs, de CPU, quelle capacité mémoire, quels réseaux, quel stockage et quel logiciel d’orchestration sont nécessaires pour faire fonctionner de manière fiable des milliers de flux agentiques ?
Ce changement influence l’économie de l’infrastructure. Un cluster doté de nombreuses GPU mais insuffisamment de CPU pourrait manquer d’orchestration. À l’inverse, un système utilisant des CPU efficaces mais peu d’accélérateurs ne pourra pas exécuter des modèles lourds à grande échelle. L’enjeu est de concevoir des systèmes équilibrés, avec des ratios adaptés en fonction des charges : entraînement, inférence, agents d’entreprise, génération de code, analyse documentaire ou automatisation opérationnelle.
La prévision de UBS peut sembler optimiste en chiffres, mais elle indique une orientation cohérente. L’IA agentique rend le calcul plus distribué et complexe. Elle ne supprime pas la nécessité des GPU, elle crée plutôt de nouvelles couches autour d’eux. Et à ces couches, la CPU retrouve un rôle central.
Pour Intel, cela représente à la fois une opportunité et une menace. Le marché pourrait croître fortement, mais pas nécessairement selon les règles qui lui ont permis de dominer historiquement. Pour AMD, c’est une occasion de renforcer la gamme EPYC et de proposer une plateforme IA plus vaste. Pour Arm, cela pourrait signifier la consolidation de son entrée dans l’univers des data centers via une approche basée sur l’efficacité et l’échelle.
L’ère de l’IA ne sera pas uniquement une guerre d’accélérateurs, mais aussi une bataille de systèmes complets. Et dans cette course, la CPU reprend toute son importance.
Questions fréquentes
Pourquoi l’IA agentique augmente-t-elle la demande en CPU ?
Parce que les agents ne se limitent pas à donner des réponses. Ils coordonnent des tâches, appellent des outils, déplacent des données, exécutent des processus, appliquent des permissions et gèrent des flux parallèles. Tout cela nécessite un calcul général en plus du GPU.
Les CPU vont-elles remplacer les GPU en IA ?
Non. Les GPU resteront indispensables pour l’entraînement intensif et l’inférence lourde. La thèse est que les CPU évolueront pour compléter cette capacité en orchestration et exécution des charges agentiques.
Pourquoi Arm pourrait-il en profiter plus que Intel ?
Parce que de nombreuses charges agentiques valorisent davantage le nombre de cœurs et l’efficacité énergétique que la puissance maximale par cœur. Dans ce cadre, les architectures basées sur Arm se révèlent particulièrement attractives pour les hyper-scalers et les serveurs IA.
Quel rôle joue AMD dans cette évolution ?
AMD peut tirer profit de ses processeurs EPYC multicœurs et de sa stratégie d’infrastructure intégrée avec CPU, GPU Instinct, réseaux et plateformes de rack pour l’IA.