Le combat pour la domination sur le marché des mémoires à large bande passante (« High Bandwidth Memory » – HBM) entre dans un nouveau chapitre. Samsung Electronics, qui ces dernières années a progressivement perdu du terrain face à SK hynix et Micron, préparerait une offensive sans précédent afin de retrouver sa place de leader. Selon des sources de l’industrie sud-coréenne, la société aurait décidé de jouer gros dans le domaine du HBM4, même si cela implique une véritable guerre des prix qui comprimera ses marges dans une moindre mesure.
L’objectif est clair : entrer dans la chaîne d’approvisionnement de NVIDIA, le plus grand acheteur mondial de mémoires HBM grâce à la croissance de ses puces d’intelligence artificielle. Avec l’arrivée prochaine de la nouvelle génération de GPU « Rubin », le fournisseur qui parviendra à s’imposer auprès de NVIDIA sécurisera des contrats de plusieurs milliards et une visibilité mondiale accrue. Samsung ne souhaite pas rester en retrait.
Une stratégie risquée : plus de volume, au détriment de la rentabilité
Les médias sud-coréens, notamment The Bell, ont révélé que Samsung produisait une quantité exceptionnellement élevée d’échantillons de HBM4 : environ 10 000 wafers de test, un chiffre nettement supérieur à la normale dans l’industrie. La raison en est simple : les taux de rendement (c’est-à-dire la proportion de chips fonctionnels par rapport aux défectueux) ne sont pas encore optimaux.
Samsung a choisi d’assumer ces surcoûts et produire plus que nécessaire afin de disposer d’un stock suffisant de modules « bons » lorsque le moment sera venu de se positionner sur les contrats. Selon des analystes locaux, « la société force la machine pour compenser un rendement initial inférieur à celui de ses concurrents ».
Ce défi technique s’ajoute à la complexité du produit : alors que SK hynix et Micron utilisent des mémoires DRAM de 5ᵉ génération (1b) déjà établies dans la fabrication du HBM3E et du HBM4, Samsung a préféré faire un saut plus important en intégrant de la mémoire DRAM de 6ᵉ génération (1c). Cette technologie est encore immature, ce qui explique une efficacité initiale moindre.
Cependant, Samsung mise sur ses avantages en lithographie EUV et sa capacité de production à grande échelle pour faire pencher la balance en sa faveur.
Un marché où Samsung accuse un certain retard
Dans le segment HBM, la société sud-coréenne a perdu du terrain. SK hynix domine clairement, ayant été le premier à livrer des échantillons de HBM4 à NVIDIA en mars 2025, suivi de Micron en juin. Selon des estimations, Samsung aurait commencé ses envois vers juillet, mais avec du retard par rapport à ses concurrents.
Plus révélateur encore, Samsung n’a pas réussi à finaliser la validation de son HBM3E, alors que ses rivaux la surpassaient depuis plusieurs mois. Cependant, l’industrie s’accorde à dire que le HBM3E n’est qu’une étape intermédiaire. Le véritable enjeu se jouera avec le HBM4, une étape où Samsung veut se rattraper.
Le pari du prix : prêt à une guerre ouverte
En plus d’augmenter le volume d’échantillons, Samsung prépare ce que certains experts qualifient de « mouvement désespéré » : réduire les prix jusqu’à leur seuil limite, même avec des marges quasi nulles, pour intégrer la liste des fournisseurs de NVIDIA.
Le contexte est complexe. La fabrication du HBM4 coûte plus cher que celle du HBM3E, en raison de facteurs tels que l’externalisation du « die de base », la réduction du nombre de wafers par lot et l’augmentation des interfaces d’entrée/sortie (I/O). Selon les estimations du secteur, un HBM4 à 12 couches pourrait coûter entre 60 % et 70 % de plus qu’un équivalent en HBM3E.
SK hynix, actuellement leader, espère maintenir une prime de 30 à 40 % sur le prix de vente. NVIDIA, de son côté, pousse pour réduire les coûts, consciente que ses fournisseurs se livrent à une compétition acharnée pour un marché où elle détient une part dominante. Cette divergence a retardé les négociations avec SK hynix et ouvre la voie à Micron et Samsung comme alternatives.
Dans ce contexte, Samsung envisage d’offrir des prix nettement inférieurs, avec une prime inférieure à 20 %, ce qui revient pratiquement à accepter des marges quasi inexistantes.
Une stratégie rappelant la « guerre des prix » de la DRAM
Ce n’est pas la première fois que Samsung adopte une telle tactique. Par le passé, durant des périodes de crise sur le marché des mémoires DRAM, la société s’était lancée dans une concurrence féroce qui avait mis en difficulté les fabricants japonais et taïwanais.
Forte de sa solvabilité et de sa capacité industrielle, Samsung avait survécu à cette dynamique de « celui qui résiste gagne », en renforçant sa position lorsque ses rivaux avaient du mal à supporter les pertes.
Aujourd’hui, certains analystes y voient des similitudes évidentes. « Samsung peut se permettre de sacrifier ses marges à court terme, ce que SK hynix ou Micron ne peuvent pas faire dans la même mesure », expliquent-ils. La question est de savoir si cette stratégie fonctionnera à nouveau dans un marché aussi concentré que celui du HBM.
Facteurs politiques et relations de haut niveau
L’élan interne joue également un rôle crucial. D’après des sources sud-coréennes, l’offensive de Samsung bénéficie du soutien direct de son président Lee Jae-yong, et est dirigée par Jun Young-hyun, vice-président de la société et responsable de la division des semi-conducteurs.
Les relations avec NVIDIA sont soigneusement entretenues. Lors d’un récent voyage aux États-Unis, Lee a rencontré Jensen Huang, PDG de NVIDIA, dans un échange qui comprenait un geste symbolique : une photo les montrant en train de s’embrasser, symbole de complicité perceptible dans l’industrie mondiale.
Le message est clair : Samsung est prête à tout pour devenir un partenaire stratégique de NVIDIA dans cette ère d’intelligence artificielle.
Risques et enjeux de la stratégie
Cet audacieux pari comporte toutefois plusieurs risques principaux :
- Rentabilité en danger : vendre du HBM4 avec peu ou pas de marge peut fragiliser ses résultats si la réussite n’est pas rapidement au rendez-vous.
- Concurrence féroce : SK hynix est en position de force, et Micron également cherche à se faire une place, ce qui risque de transformer le marché en une guerre des prix insoutenable.
- Dépendance à NVIDIA : concentrer ses efforts sur un seul client peut rendre Samsung vulnérable si le contexte change.
- Défis techniques : l’adoption de la DRAM de sixième génération, encore immature, pourrait retarder la validation du produit.
Si cette stratégie réussit, Samsung pourrait revenir dans le club fermé du HBM et obtenir des contrats avec le géant des GPU, consolidant ainsi sa position dans un marché clé de l’IA.
Conclusion : risquer pour mieux gagner ?
Samsung se trouve à un tournant décisif. La société doit soit s’imposer dans le segment HBM4 avec une stratégie agressive de production et de tarification, soit risquer de rester définitivement à la traîne face à SK hynix, qui domine le secteur, et Micron, qui progresse rapidement.
Les signaux semblent indiquer que Samsung a opté pour la première option : tout miser, y compris sur la rentabilité, pour redevenir un acteur majeur. L’histoire montre que Samsung sait résister dans ces batailles d’usure, mais le contexte mondial de l’IA est bien plus complexe que celui de la DRAM d’il y a une décennie.
Le résultat final dépendra de la capacité de son offensive HBM4 à convaincre NVIDIA et à lui permettre d’intégrer, enfin, une chaîne d’approvisionnement qui détermine aujourd’hui qui gagne et qui perd dans cette nouvelle ère de l’intelligence artificielle.
Questions fréquentes (FAQ)
Qu’est-ce que la mémoire HBM et pourquoi est-elle cruciale pour l’IA ?
La HBM (High Bandwidth Memory) est un type de mémoire en pile 3D à très haut débit, capable d’offrir une bande passante nettement supérieure à celle de la DRAM classique. Elle est essentielle pour les puces d’IA et GPU de nouvelle génération où la vitesse d’accès aux données est déterminante.
Pourquoi NVIDIA est-elle le client clé dans ce marché ?
NVIDIA concentre la majorité de la demande en HBM, car ses GPU pour centres de données IA, comme le H100 ou la future série Rubin, en dépendent pour maximiser leur performance. Avoir un contrat avec NVIDIA garantit des volumes importants et une stabilité des revenus.
Quelle différence entre HBM3E et HBM4 ?
Le HBM3E est une version améliorée de la 3ᵉ génération, tandis que le HBM4 correspond à la 6ᵉ génération de DRAM, avec une avancée significative en densité, efficacité et performances. Son adoption définira la norme dans la prochaine vague de puces IA.
Quels risques pèse sur Samsung avec cette stratégie ?
Le principal risque est financier : en réduisant ses marges pour rester compétitive, l’entreprise risque d’affecter sa rentabilité. Elle doit aussi relever des défis techniques liés à la production de la DRAM 1c et convaincre NVIDIA que son HBM4 est compétitif face à SK hynix et Micron.
Source : thebell.co.kr