NVIDIA et Intel scellent un partenariat stratégique pour co-développer des CPU x86 et des SoC avec RTX et intégrer NVLink de manière native : investissement de 5 milliards de dollars et feuille de route multigénérationnelle

NVIDIA et Intel scellent un partenariat stratégique pour co-développer des CPU x86 et des SoC avec RTX et intégrer NVLink de manière native : investissement de 5 milliards de dollars et feuille de route multigénérationnelle

Santa Clara, le 18 septembre 2025. NVIDIA (NASDAQ : NVDA) et Intel Corporation (NASDAQ : INTC) ont annoncé une collaboration pluriannuelle visant à développer plusieurs générations de produits personnalisés pour centres de données et PC, dans le but de accélérer les applications et charges de travail sur les marchés hyperéchelle, entreprise et grand public. L’accord repose sur un objectif technique clair : connecter nativement les architectures des deux entreprises via NVIDIA NVLink, fusionnant ainsi la pile IA et calcul accéléré de NVIDIA avec les CPU x86 et l’écosystème d’Intel.

Au-delà des engagements technologiques, NVIDIA investira 5 milliards de dollars en actions ordinaires d’Intel, au prix unitaire de 23,28 dollars. La transaction reste soumise aux conditions de clôture habituelles, y compris les approbations réglementaires nécessaires.


Détails précis de l’annonce

La note officielle commune décrit deux axes principaux :

  1. Centres de données (Data Center)
    • Intel concevra et fabriquera des CPU x86 personnalisés pour NVIDIA.
    • NVIDIA intégrera ces CPU personnalisés dans ses plateformes d’infrastructure IA et les proposera sur le marché comme partie de son catalogue pour la calculation accélérée.
  2. Calcul personnel (PC/Client)
    • Intel fabriquera et commercialisera des SoC x86 qui intégreront des chiplets GPU NVIDIA RTX.
    • Ces SoC x86 avec RTX viseront une large gamme de PC nécessitant CPU et GPU de classe mondiale en un seul package.

Dans les deux cas, la connectivité NVLink apparaît comme le filière à haut débit pour lier CPU et GPU, réduisant les goulets d’étranglement, optimisant le transfert de données entre les composants et permettant des topologies de mémoire partagée et une montée en charge efficace pour les charges d’IA et de graphisme.


Vies de dirigeants : “deux plateformes mondiales” et une nouvelle génération technologique

Jensen Huang, fondateur et CEO de NVIDIA, a présenté l’accord comme une étape dans la transformation de l’intégralité de la pile informatique :

« L’IA provoque une nouvelle révolution industrielle en reinventant toutes les couches, du silicium au logiciel. Au cœur de cette transformation se trouve CUDA. Cette collaboration historique relie fortement la pile IA et de calcul accéléré de NVIDIA avec les CPU d’Intel et l’écosystème x86. Ensemble, nous étendrons nos écosystèmes et poserons les bases de la prochaine ère du calcul. »

De son côté, Lip-Bu Tan, CEO d’Intel, souligne la synergie entre plates-formes de centres de données et grand public avec la fabrication avancée et l’intégration d’Intel :

« L’architecture x86 d’Intel a été un pilier de l’informatique moderne pendant des décennies. Nos plateformes leaders pour centres de données et PC, combinées à notre technologie de fabrication et d’empaquetage avancée, compléteront le leadership de NVIDIA en IA et calcul accéléré, permettant de nouveaux progrès. Nous remercions Jensen et l’équipe NVIDIA pour leur confiance par leur investissement, et sommes impatients d’innover ensemble pour nos clients. »


Implications concrètes : du laboratoire au rack et au portable

1) Centre de données : CPU x86 “sur mesure” pour l’IA

  • Co-conception centrée sur l’IA : les processeurs x86 fabriqués par Intel pour NVIDIA seront configurés pour répondre aux exigences spécifiques de l’inférence et de l’entraînement (bande passante mémoire, télémétrie, accélérations d’E/S) et respecter la logique d’orchestration déjà implémentée par NVIDIA dans ses plateformes d’infrastructure.
  • NVLink comme colonne vertébrale : sa faible latence et son débit élevé sont essentiels pour éviter les goulets d’étranglement lors des échanges CPU-GPU intenses (pré-remplissage de LLM, vectorisation, pipelines de données).
  • Intégration simplifiée : la commercialisation de ces CPUs intégrés dans les plateformes IA de NVIDIA permettra d’optimiser le « stack » complet – silice, pilotes, frameworks, runtime et déploiement –, facilitant l’adoption par les clients de l’hyperéchelle et de l’entreprise.

2) PC/Grand public : SoC x86 avec chiplets RTX

  • Une seule puce, deux mondes : le SoC x86 avec chiplets RTX ambitionne d’apporter au marché PC des capacités RTX graphiques de haute qualité directement dans le processeur, avec la possibilité d’améliorer efficacité, latence et coût d’intégration comparé aux solutions discrètes.
  • Designs évolutifs : l’approche avec chiplets adopte des configurations progressives (de portables haut de gamme et stations de travail légères à des desktops compacts), avec des pilotes unifiés en phase avec l’écosystème RTX.
  • Usages : création de contenus, jeux vidéo, IA locale et applications professionnelles (CAD, DCC) pourraient profiter d’une accélération RTX intégrée, sans GPU dédié dans tous les modèles.

Aspects techniques clés : pourquoi NVLink, pourquoi maintenant

Le principal obstacle à la performance de l’IA générative et du rendu avancé n’est pas seulement la puissance FLOPS, mais surtout le déplacement efficace des données entre CPU et GPU, et de plus en plus entre GPU et GPU. Dans ce contexte :

  • NVLink sert de backbone haut débit pour le partage mémoire, la coordination des kernels et l’alimentation du calcul accéléré avec les données appropriées, au bon moment.
  • Une intégration anticipée (architecture et pas seulement carte mère) permet de minimiser la latence, de simplifier la communication logicielle et d’exploiter au maximum le hardware dans les charges lourdes d’IA, science des données, graphisme et multimédia.
  • Pour les PC, un SoC x86+RTX interconnecté de façon optimisée peut rapprocher les performances de l’IA générative locale (édition vidéo avec modèles, upscaling, synthèse) du rendu en nuage, pour l’utilisateur final, sans dépendance première à la cloud.

Une lecture du marché : une alliance qui redistribue les cartes

  • Pour les clients hyperéchelle et entreprise : la possibilité d’acquérir plateformes IACPU et GPU sont conçus pour fonctionner en synergie via NVLink, réduisant risques d’intégration et accélérant le retour sur investissement IA.
  • Pour les OEM et distributeurs : les SoC x86 avec RTX simplifient la conception thermique, la validation, et offrent des gammes de produits plus claires et efficaces pour portables et desktops avec IA locale.
  • Pour les développeurs : un écosystème où CUDA/RTX et x86 cohabitent nativement, permettant des optimisations approfondies des frameworks, moteurs et applications créatives.

Investissement : 5 milliards de dollars, à 23,28 dollars par action

Le communiqué précise qu’NVIDIA investira 5 milliards de dollars en actions ordinaires d’Intel, à un prix de 23,28 dollars. La transaction est conditionnée à l’approbation réglementaire et autres conditions standard de clôture, comme en matière antitrust (Hart-Scott-Rodino aux États-Unis).

Important : NVIDIA et Intel signalent que cette annonce contient des déclarations prospectives soumises à des risques et incertitudes (acceptation des produits, délais, réglementations, concurrence, etc.), en renvoyant à leurs rapports 10-K et 10-Q déposés auprès de la SEC pour plus d’informations sur ces facteurs.


Éléments restant à préciser : calendrier, nœuds, emballage et logiciels

L’accord décrit l’architecture et le mode de collaboration, mais laisse en suspens certains aspects cruciaux :

  • Calendrier de disponibilité des premières CPU x86 sur mesure et des SoC x86 avec RTX.
  • Nœuds de fabrication et technologies d’emballage avancé qu’Intel utilisera (clé pour chiplets, interposers, gestion thermique).
  • Modèles de commercialisation : quels produits NVIDIA intégrera-t-elle directement à son portfolio infrastructure et lesquels Intel commercialisera-t-elle sous sa marque auprès des OEMs et distributeurs.
  • Logiciels et pilotes : comment s’intégreront les pipelines de calculs (CUDA/RTX, librairies IA) et le toolchain x86 en vue de maximiser performance et facilité de développement.

Contexte stratégique : deux plateformes, un objectif commun

Ce partenariat n’implique pas de fusions ou de changements de contrôle : il s’agit d’une collaboration technologique avec une investissement minoritaire. La valeur ajoutée consiste à combiner la valeur de l’écosystème x86 d’Intel et sa fabrication avec la pile accélérée et l’écosystème CUDA/RTX de NVIDIA :

  • Pour NVIDIA, accéder à des CPU x86 “sur mesure” et permettre des SoC graphiques RTX intégrés, ouvrant de nouveaux marchés et segments.
  • Pour Intel, co-concevoir des CPU data center pour une infrastructure IA élargie et offrir des SoC x86 avec RTX renforçant sa position sur les marchés des centres de données et du grand public.

Conférence de presse et retransmission

Les CEO des deux groupes animeront une conférence de presse aujourd’hui à 10h00 PT / 13h00 HE. La retransmission sera accessible au public via le lien officiel fourni par NVIDIA.


Conclusion : un tournant pour l’IA “CPU+GPU natifs”

Ce n’est pas simplement une entente commerciale : c’est la mise en commun de deux plateformes leader pour réinventer la construction et le déploiement des systèmes IA et PC hautes performances dans les années qui viennent. Si l’intégration NVLink-native et le modèle de livraison tiennent leurs promesses, cela donnera naissance à :

  • Centres de données intégrant des CPU x86 personnalisés conçus pour fonctionner en parallèle avec des GPU accélérés sous une architecture unifiée.
  • PCs dont les SoC x86 et chiplets RTX supprimeront les barrières traditionnelles entre intégré et discret, permettant une IA locale et des graphismes avancés “de série”.

Le succès concret dépendra de la qualité de la mise en œuvre : calendrier, fabrication, pilotes, outils de développement, et surtout de la capacité des OEM à transformer cette promesse technologique en produits fiables et attractifs. Néanmoins, cette annonce jette les bases d’une nouvelle étapeCPU et GPU deviennent une solution de conception intégrée, du silicium au logiciel.


Questions fréquentes

Qu’ont précisément annoncé NVIDIA et Intel ?
Une collaboration intergénérationnelle pour développer des CPU x86 sur mesure pour NVIDIA (centre de données) et des SoC x86 avec chiplets GPU RTX (grand public). La connectivité NVLink sera le lien haut débit naturelle entre ces architectures.

Qui fabriquera quoi ?
Intel concevra et produira les CPU x86 personnalisés pour les systèmes IA de NVIDIA, et également fabriquera et commercialisera des SoC x86 avec chiplets RTX pour le marché du grand public. NVIDIA intégrera ces CPU data center dans ses plateformes IA et *commercialisera ces solutions*.

Une participation financière est-elle prévue ?
Oui. NVIDIA investira 5 milliards de dollars en actions ordinaires d’Intel au prix de 23,28 dollars par action. La transaction demeure soumise à approbations réglementaires.

Pourquoi NVLink est-il stratégique dans cet accord ?
Parce que il réduit la latence et augmente le débit entre CPU et GPU, essentielle pour alimenter efficacement les charges d’IA, le rendu graphique, et le multimédia, tout en simplifiant le développement logiciel dans une architecture cohérente.

Quand seront disponibles les premiers produits ?
Le communiqué ne donne pas de dates exactes. La disponibilité dépendra de la recherche, fabrication, et approbations. NVIDIA et Intel organiseront une conférence aujourd’hui pour apporter des précisions supplémentaires.

Quels risques les entreprises évoquent-elles ?
Elles mentionnent toutes deux des déclarations prospectives, en soulignant que les facteurs de risque incluent l’acceptation du marché, la régulation, la concurrence, les délais, et la dépendance aux fournisseurs et logiciels.

Comment cette alliance impactera le marché PC ?
Les SoC x86 avec RTX pourraient apporter une IA locale intégrée et des graphismes “de série” à un plus large éventail de produits, incluant portables et desktops, réduisant la complexité pour les OEM et améliorant l’efficacité pour l’utilisateur final.

source : nvidianews.nvidia

le dernier