NVIDIA a clôturé — du moins sur le plan financier — l’un des chapitres les plus emblématiques de son histoire récente : la société s’est départie de sa dernière participation dans Arm Holdings. La vente, selon des informations basées sur une documentation réglementaire, concerne 1,1 million d’actions, évaluées à environ 140 millions de dollars américains et aurait été réalisée durant le quatrième trimestre de 2025, laissant sa position dans Arm à zéro.
Ce mouvement ne se limite pas à une opération comptable. Il intervient à un moment où le secteur repense le rôle du CPU dans la nouvelle vague d’IA agentique : des assistants capables d’enchaîner les étapes, d’appeler des outils, de consulter la mémoire, d’envoyer des requêtes aux API et de coordonner des flux de travail complets. Cette « chorégraphie » ne se réside pas uniquement dans la GPU. Dans de nombreux environnements réels, la latence totale dépend d’éléments moins visibles — files d’attente, orchestration, réseaux, caches, sérialisation des données — où la CPU reprend tout son rôle de protagoniste.
Un changement réfléchi : de l’achat contrarié à la sortie totale
Pour comprendre pourquoi cette vente a suscité autant de réactions, il faut remonter dans le temps. NVIDIA avait convenu en 2020 d’acquérir Arm pour environ 40 milliards de dollars américains, mais l’opération a finalement été abandonnée en 2022 suite à une forte pression réglementaire sur plusieurs marchés. Depuis, Arm a poursuivi son chemin en bourse, et NVIDIA a conservé une participation minoritaire qui est désormais entièrement liquidée.
GFHK a mentionné dans sa séance de questions-réponses suite à leur rapport de février que les CPU à architecture ARM ont un faible dynamisme dans les serveurs IA, en raison d’une efficacité moindre de la planification GPU comparée à x86.
Ils ont indiqué que des entreprises, dont NVIDIA, prévoient de développer des solutions CPU x86…
— Jukan (@jukan05) 13 février 2026
La lecture officielle (et la plus prudente) consiste en une optimisation du portefeuille : libérer du capital, simplifier l’exposition et passer à autre chose. Mais le contexte amène beaucoup à voir cette décision comme un message indirect dans un débat plus large : quelle architecture CPU « s’intègre » le mieux lorsque l’IA passe de l’entraînement à la production, aux agents, et à des millions de micro-tâches par seconde.
ARM vs x86 : le débat qui revient à l’intersection de l’inférence
Pendant des années, Arm a été associée à l’efficacité et à la montée en charge, et NVIDIA l’a adoptée avec ferveur : ses designs avec CPU Arm se retrouvent dans des produits pour centres de données et supercalculateurs. Et pourtant, à l’ère de l’agentivité, de nouveaux nuances apparaissent.
Une partie de l’argument technique tourne autour du fait que de nombreux scénarios d’agents privilégient des pics de performance par thread et des temps de réponse courts, en plus de s’intégrer dans des écosystèmes d’entreprise où x86 reste la « langue native » : hyperviseurs, chaînes d’outils, bibliothèques, environnements hérités, images de base, optimisations historiques et une opérationnalité de plusieurs décennies. En d’autres termes : pour une entreprise, le coût de changer d’architecture ne concerne pas uniquement le serveur, mais tout ce qui l’entoure.
La clé pratique pour les équipes systèmes et développement réside dans le fait que le goulet d’étranglement se manifeste rarement par une signalisation claire. Parfois, la GPU est « à l’arrêt » en attente d’une décision de l’agent ; d’autres fois, le problème provient du pipeline (files d’attente, entrées/sorties, réseau, tokenisation, compression, RPC, caches), et dans ce monde c’est la CPU qui fixe le rythme, plus souvent qu’on ne le pensait il y a deux ans.
Vera, Rubin et la continuité ARM… avec une porte ouverte à x86
C’est ici que le débat devient intéressant : NVIDIA ne semble pas abandonner Arm dans ses produits, même si elle s’est départie d’Arm dans ses parts de capital.
Dans sa feuille de route publique, la société a présenté la plateforme Vera Rubin, où la CPU « Vera » repose sur Arm (avec une conception propre et un accent sur la performance pour l’IA à grande échelle). Autrement dit : au niveau architectural, Arm demeure intégrée dans la vision de NVIDIA pour les centres de données.
Mais, parallèlement, des signaux d’approche stratégique vers x86 ont commencé à apparaître. Par exemple, une collaboration notable avec Intel, incluant l’intégration de technologies et une relation industrielle que de nombreux analystes interprètent comme un moyen de réduire la friction avec l’univers x86, surtout dans des déploiements où la compatibilité et l’inertie sont aussi importantes que la performance brute.
En termes de centre de données : bien que la CPU « maison » de NVIDIA puisse rester basée sur Arm dans certains systèmes, il n’est pas impossible que l’écosystème évolue vers des racks et des plateformes plus hétérogènes, où cohabitent accélérateurs, réseaux haut débit et CPUs x86 ou Arm, selon le cas d’usage, le logiciel, le fournisseur ou la réalité opérationnelle du client.
Ce que cela implique pour les administrateurs systémiques et les développeurs
Pour les profils techniques, cette actualité ne concerne pas uniquement l’actionnariat, mais surtout les décisions :
- Planification de plateforme : si votre stratégie IA inclut des agents (pas seulement le chat), commencez à considérer la CPU comme une ressource critique : latence par appel, files d’attente, p95/p99, saturation par thread, surcharge des outils.
- Compatibilité et dette technique : dans les entreprises héritées, x86 continuera de l’emporter par friction organisationnelle. Arm peut briller, mais migrer les runtimes et pipelines n’est pas « juste une recompilation ».
- Architectures hybrides : la tendance raisonnable est plutôt d’aller vers plus de mélange, pas moins. Moins de dogme (« tout GPU / tout Arm ») et plus d’ingénierie (« ceci nécessite un pic par thread, cela nécessite un débit, ceci nécessite compatibilité »).
- Achats à horizon 3 ans : l’IA agentique déplace le centre de gravité du coût : ce n’est plus seulement l’entraînement, mais aussi le service; et ce dernier exige une efficacité de bout en bout.
En définitive, la vente de la dernière part de dons d’Arm ne condamne aucune architecture. Elle envoie cependant un message clair : la bataille de l’IA ne se joue plus uniquement sur la GPU. Quand le marché le comprend, la CPU cesse d’être « l’éternelle » et redevient un terrain stratégique de compétition.
Questions fréquentes
Pourquoi la vente d’actions Arm par NVIDIA est-elle importante ?
Parce qu’elle clôt la relation actionnariale après l’échec de l’achat et intervient à un moment où l’industrie réévalue l’architecture CPU adaptée à l’IA agentique et à l’inférence à grande échelle.
L’IA agentique nécessite-t-elle plus de CPU que l’IA classique ?
Elle accroît généralement la dépendance à la CPU pour l’orchestration : appels aux outils, APIs, mémoire, files d’attente et coordination. Dans de nombreux déploiements, la latence totale et la performance perçue dépendent de cette « charpente ».
NVIDIA abandonnera-t-elle ses CPUs Arm pour ses centres de données ?
Pas nécessairement. La feuille de route de NVIDIA pour Vera Rubin maintient des CPU basées sur Arm, ce qui suggère une continuité technique, même si la position financière évolue.
Que doit surveiller une équipe systemes lorsqu’elle déploie des agents IA ?
Les métriques de latence p95/p99, la saturation par thread, les temps d’IO et de réseau, les files d’attente internes, et le coût opérationnel de compatibilité (conteneurs, bibliothèques, hyperviseurs, chaînes d’outils), car le goulet d’étranglement peut se situer hors GPU.