Au premier trimestre 2026, AMD a réalisé 10,25 milliards de dollars de chiffre d’affaires, soit +38 % sur un an. Le segment data center a dépassé 5,8 milliards, en hausse de 57 %. Lisa Su, PDG de la société, a choisi la conférence de résultats pour trancher un débat récurrent dans le secteur : l’IA agentique va-t-elle détourner les budgets des GPU vers les CPU ? Sa réponse : les deux à la fois, sans que l’un cannibale l’autre.
Le CPU revient au centre de l’infrastructure IA
Ces deux dernières années, les GPU ont accaparé l’essentiel du débat sur l’infrastructure IA. NVIDIA a tenu le rythme du marché, et les hyperscalers ont couru pour sécuriser des accélérateurs, de la mémoire HBM et de la capacité électrique. Mais l’inférence et les agents changent la composition de ces systèmes.
Lisa Su l’explique sans détour : l’IA agentique génère davantage de travail CPU parce que ces charges requièrent coordination, déplacement de données et exécution parallèle, en plus d’utiliser le processeur comme nœud de contrôle pour GPU et accélérateurs. AMD prévoit désormais que le marché adressable des CPU serveurs dépassera 120 milliards de dollars d’ici 2030, avec une croissance annuelle de plus de 35 % — contre 18 % estimés en novembre 2025.
Dans les configurations classiques, une CPU gérait quatre à huit GPU. Avec l’IA agentique, ce ratio pourrait se rapprocher de 1:1, voire basculer vers plus de CPU que de GPU dans certains déploiements. C’est un changement de fond pour l’architecture des datacenters, et AMD y trouve un argument commercial que ses concurrents centrés uniquement sur les accélérateurs ne peuvent pas avancer aussi facilement. Arm suit une trajectoire comparable, en poussant ses architectures CPU dans les charges IA où la consommation électrique et la densité de calcul sont critiques.
Le segment EPYC reflète déjà cette tendance : combiné à la hausse des livraisons de GPU Instinct, il a propulsé le data center à 5,8 milliards de dollars au T1 2026. AMD a aussi revu à la hausse ses prévisions pour le marché CPU serveurs, dont elle table maintenant sur une croissance annuelle de plus de 35 % jusqu’en 2030, pour dépasser 120 milliards de dollars.
MI450, Helios et la course à l’inférence
Les GPU restent au cœur du calcul intensif. AMD a confirmé avoir commencé à livrer des échantillons du MI450 à des clients majeurs, et maintient le calendrier de production de Helios pour le second semestre 2026. Les prévisions clients dépassent déjà les plans initiaux, avec des discussions pour des déploiements de plusieurs gigawatts.
Chaque MI450 peut atteindre 432 Go de mémoire HBM4 et 19,6 To/s de bande passante. À l’échelle d’un rack Helios équipé de 72 MI450, le système atteindrait 1,4 exaFLOPS en FP8 et 2,9 exaFLOPS en FP4, avec 31 To de mémoire HBM4. Ce sont des chiffres qui intéressent les clients qui cherchent des alternatives crédibles à NVIDIA pour les déploiements à grande échelle.
L’inférence concentre les projets les plus ambitieux. Une fois les modèles entraînés, servir des réponses à des millions d’utilisateurs, d’agents ou d’applications d’entreprise devient une tâche continue dont le volume ne fait que croître. Le coût par jeton, la consommation électrique et la capacité à monter en charge sont les critères clés. Anthropic, qui vient de louer la totalité du centre de calcul Colossus 1 de SpaceX, illustre l’ampleur des besoins en infrastructure que ces acteurs doivent satisfaire en permanence.
Lisa Su indique que des discussions sont déjà en cours avec des clients sur la future série MI500. En IA, les grands acheteurs ne décident pas trimestre par trimestre : ils réservent capacité électrique, racks et mémoire avec plusieurs années d’avance.
Résultats T1 2026 : 10,25 Mds$ et guidance Q2 à 11,2 Mds$
Les chiffres donnent de la consistance à cette thèse.
| Indicateurs T1 2026 | Résultats |
|---|---|
| Chiffre d’affaires | 10,25 milliards de dollars |
| Croissance annuelle | +38 % |
| Data Center | 5,8 milliards de dollars |
| Croissance Data Center | +57 % |
| Bénéfice net GAAP | 1,38 milliard de dollars |
| BPA non-GAAP | 1,37 dollar |
| Marge brute non-GAAP | 55 % |
| Flux de trésorerie disponible | 2,57 milliards de dollars |
| Liquidités et investissements à court terme | 12,35 milliards de dollars |
Pour le T2 2026, AMD prévoit environ 11,2 milliards de dollars (±300 millions), soit une croissance annuelle proche de 46 % et une progression séquentielle d’environ 9 %. La marge brute non-GAAP devrait atteindre 56 %. Le marché a bien accueilli ces prévisions, avec une hausse d’environ 12 % en séance étendue après la publication.
GPU et CPU : la thèse de la demande additive
La question de fond dépasse le trimestre. Elle porte sur l’architecture des datacenters de demain. Un agent IA ne se contente pas de répondre à une requête : il décompose des tâches, interroge des bases de données, appelle des API, génère du code, vérifie des résultats et coordonne d’autres agents. Chaque action génère du travail autour de l’accélérateur, et c’est ce travail indirect qui gonfle la demande CPU.
AMD défend une thèse de demande additive : pas de cannibalisation, mais une augmentation globale des dépenses. Su cite elle-même le paradoxe de Jevons appliqué à l’IA — quand le coût d’utilisation d’une technologie baisse, les usages se multiplient, ce qui peut faire croître la consommation totale. Si les agents automatisent et démultiplient le volume de tâches, l’infrastructure en profite dans son ensemble.
Cette lecture positionne AMD comme un fournisseur d’infrastructure complète : EPYC pour les serveurs et les nœuds de contrôle, Instinct pour l’entraînement et l’inférence, Pensando pour le réseau, ROCm pour le logiciel, Helios pour les déploiements en rack.
Les risques sont réels. NVIDIA conserve une avance nette en logiciel, en adoption et en solutions intégrées. AMD doit livrer MI450 dans les temps, améliorer ROCm et convaincre des clients encore prudents. La chaîne d’approvisionnement dépend de TSMC, sous pression constante de la demande IA. Intel joue aussi la carte CPU dans l’IA, en mettant en avant sa capacité de fabrication interne comme avantage de différenciation pendant qu’AMD continue de dépendre de fonderies externes.
La prochaine phase de l’IA ne sera pas uniquement une course de GPU. Si AMD parvient à exécuter sa feuille de route, elle dispose de davantage de leviers de croissance que les acteurs spécialisés dans les seuls accélérateurs.
Questions fréquentes
Pourquoi l’IA agentique augmente-t-elle la demande CPU selon AMD ?
Un agent IA ne fait pas que répondre à des requêtes : il orchestre des tâches, déplace des données, appelle des outils externes et coordonne d’autres agents. Ces opérations sollicitent le CPU comme nœud de contrôle et processeur généraliste, en plus du GPU qui assure le calcul intensif.
La hausse de la demande CPU va-t-elle réduire les ventes de GPU ?
Pas selon AMD. Lisa Su défend une thèse de demande additive : les datacenters achèteront plus de GPU et plus de CPU, dans des proportions qui évoluent. L’inférence agentique multiplie le travail total, ce qui profite aux deux types de puces.
Qu’est-ce que le MI450 et la plateforme Helios d’AMD ?
Le MI450 est la nouvelle génération de GPU Instinct pour l’IA, avec jusqu’à 432 Go de mémoire HBM4 et 19,6 To/s de bande passante. Helios est la plateforme rack qui intègre 72 MI450, des CPU EPYC, le réseau Pensando et le logiciel ROCm pour les déploiements d’entraînement et d’inférence à grande échelle.
Quand AMD va-t-elle lancer la production de Helios ?
AMD prévoit le début des livraisons de production de Helios pour le second semestre 2026. Des échantillons du MI450 sont déjà remis à des clients majeurs, et les discussions portent sur des déploiements de plusieurs gigawatts.
Quels sont les résultats financiers d’AMD au T1 2026 ?
AMD a réalisé 10,25 milliards de dollars de chiffre d’affaires au T1 2026, soit +38 % sur un an. Le data center a atteint 5,8 milliards (+57 %). Le bénéfice non-GAAP par action était de 1,37 dollar, avec une marge brute de 55 % et un flux de trésorerie disponible de 2,57 milliards.
Comment AMD se positionne-t-elle face à NVIDIA et Intel ?
AMD concurrence NVIDIA sur les accélérateurs avec Instinct et sur les CPU avec EPYC. Intel, renforcé par la réévaluation du CPU dans l’IA, joue sa capacité de fabrication interne. AMD mise sur une offre complète — GPU, CPU, réseau, logiciel — comme alternative ouverte aux solutions propriétaires de NVIDIA.