NVIDIA intègre le HBM3E de Samsung dans les systèmes Blackwell Ultra GB300 : un tournant majeur dans la chaîne de mémoire pour l’IA… avec un « accord circulaire » en vue

NVIDIA intègre le HBM3E de Samsung dans les systèmes Blackwell Ultra GB300 : un tournant majeur dans la chaîne de mémoire pour l'IA… avec un "accord circulaire" en vue

Séoul / Silicon Valley. Après des mois de rumeurs, d’échecs dans les essais et de rebondissements, Samsung a réussi l’impossible : intégrer officiellement la chaîne d’approvisionnement HBM de NVIDIA. Selon plusieurs sources convergentes, la société de Jensen Huang a commandé des piles HBM3E 12-Hi à la firme sud-coréenne pour ses solutions Blackwell Ultra à l’échelle de rack (GB300). Cette décision, qui intervient à la veille de la transition de la génération HBM3E vers le HBM4, constitue une victoire industrielle et réputationnelle pour Samsung et reflète une nouvelle configuration du paysage des fournisseurs de mémoire haute bande passante, traditionnellement dominé par SK hynix et Micron.

Ce mouvement possède deux lectures cruciales. La première, technique : Samsung a franchi les obstacles de certification (tests de qualification) qui l’avaient exclue des commandes principales de NVIDIA tout au long de 2024 et une grande partie de 2025. La seconde, stratégique : il ouvre une troisième voie de fourniture, permettant de diversifier les risques pour NVIDIA dans un contexte où la mémoire HBM apparaît comme un des goulots d’étranglement pour l’expansion de l’IA, aux côtés de la HBM3E/4 et de la HBM en packaging intégré.

Ce qui a été scellé (et pourquoi c’est important)

  • Produit : HBM3E 12-Hi de Samsung.
  • Destination : NVIDIA Blackwell Ultra GB300, solutions « rack-scale » de nouvelle génération conçues pour training et inference à grande échelle.
  • Statut : accord « pratiquement confirmé » selon la presse sud-coréenne ; volumes, prix et calendrier en stade final d’ajustement.
  • Implication : Samsung intègre enfin le « programme principal » du HBM de NVIDIA, rompant une boucle de retards de certification qui avait fragilisé sa position dans le secteur de l’IA.

Pour Samsung, c’est une bouffée d’air frais après une période où SK hynix a pris la tête sur le marché du HBM3/3E pour IA et où Micron s’est accélérée avec son HBM3E 24 Go 8-Hi/12-Hi. Pour NVIDIA, cette alliance offre plus de flexibilité en capacité et tarification, au moment où la société prépare la transition vers l’HBM4 dans la seconde moitié du cycle Blackwell.

De « Jensen Approved » à la validation technique : une année et demie mouvementée

Cette génération restera marquée par une anecdote : lors du GTC 2024, Huang a laissé son célèbre « Jensen Approved » apposé sur un module HBM3E 12-Hi de Samsung. La photo a circulé, le marché a vibré d’espoir… puis la réalité est intervenue : des défaillances lors des tests de chaleur, consommation et fiabilité ont repoussé les commandes et même le PDG de NVIDIA a suggéré que Samsung devait procéder à un nouveau design. Ce message, répété en janvier 2025, a touché l’orgueil de Samsung. La réponse a été un « redesign agressif » et une nouvelle série d’échantillons dans le premier semestre. Aujourd’hui, l’accord pour GB300 confirme que cette barrière technique a été levée.

Un « accord circulaire » en gestation : 50 000 GPUs en contrepartie

Par ailleurs, des signaux indiquent l’existence d’un paquet mutuel : Samsung aurait exprimé son intention d’acquérir environ 50 000 GPUs NVIDIA pour accompagner sa transformation IA (AX), renforcer ses services et ses centres de données, et — selon des spéculations du marché — équiper des installations liées à des partenariats stratégiques (par exemple, le datacenter IA de Pohang). Aucun détail officiel n’a été communiqué, mais la lecture est claire : « je te vends de la HBM, tu me vends des GPUs ». Ce type de supply chain croisé devient une pratique de plus en plus courante dans l’écosystème IA : il apporte de la visibilité, alignent les intérêts et, à condition d’être bien structuré, accélère les déploiements tout en limitant la charge financière pour le client final.

Pourquoi utiliser la HBM3E alors que l’accent se tourne vers la HBM4 ?

Bonne question. HBM3E reste aujourd’hui la solution de référence : elle est mature, avec des performances éprouvées, et suffit à couvrir la première vague de Blackwell à l’échelle rack. En parallèle, HBM4 — avec interfaces plus larges, piles plus épaisses et une intégration avancée (2.5D/3D via interposer organique ou hybride)— progresse en qualification vers 2026. Samsung espère prendre une avantage relatif : elle dispose d’outils logiques et de lignes de semiconducteurs intégrés sous son contrôle, alors que ses rivaux, comme SK hynix et Micron, soutiennent leur avancée via une intégration avancée sur TSMC. En résumé : Samsung tire profit aujourd’hui de ses modèles HBM3E tout en préparant une assurance compétitive pour la transition vers le HBM4, avec une stratégie d’intégration verticale attrayante pour NVIDIA et AMD.

Attention : même si cette première offre de HBM3E 12-Hi destinée à GB300 n’est pas volumineuse, elle n’en reste pas moins stratégique. Franchir cette barrière technique et contractuelle ouvre la voie à l’adoption de l’HBM4 avec moins de frictions et place Samsung dans le cycleBlackwell et ses successeurs en auront encore plus besoin.

Impact systémique : moins de concentration, plus de résilience

Pour l’écosystème global, la diversité en HBM est santé. La triple sourcing (SK hynix, Micron, Samsung) réduit les risques d’approvisionnement, augmente la flexibilité tarifaire et accélère la montée en capacité quand la demande IA — entraînement multimodal, agents, simulations — ne faiblit pas. Par ailleurs, la perspective de « cercle vertueux » : cet accord circulaire sur l’achat de GPUs par Samsung garantit un volume sécurisé pour NVIDIA et stimule l’élan de l’IA d’entreprise dans le groupe sud-coréen.

Les perspectives pour la suite

  1. Calendrier et volumes pour la livraison de HBM3E 12-Hi à GB300 : premières livraisons, mix par nœud et performance en production.
  2. Feuille de route HBM4 : qui qualifiera en premier chez NVIDIA et AMD, et selon quelles conditions (largeur de canal, fréquence, hauteur, consommation).
  3. Détails du paquet mutuel : si la commande de 50 000 GPUs Samsung se concrétise, quels modèles, pour quels usages et seront-ils déployés.
  4. Indicateurs de coût : comment cette nouvelle source de supply affectera les prix et les marges des solutions Blackwell Ultra à partir de 2026.

Lecture stratégique : un marché plus ouvert vers 2026

Le Blackwell Ultra GB300 sera historique comme la période où les systèmes à échelle rack ont concrétisé l’idée d’un computing modulaire (GPU + interconnexion + mémoire + software). La mémoire HBM s’est solidifiée en tant que deuxième composant critique après la GPU. Avec Samsung à bord, NVIDIA gagne en ampleur ; Samsung redresse ses positions dans la DRAM haut de gamme ; et le marché de l’IA est lancé dans une transition vers le HBM4, avec déjà trois acteurs en lice. Le reste — coûts, rendements, calendriers — sera déterminant pour voir qui définit le rythme de cette nouvelle étape.


Sources :

le dernier