Une nouvelle génération de mémoire à large bande passante se prépare à entrer sur le marché, offrant des performances accrues… mais à des prix considérablement plus élevés.
La mémoire HBM4, appelée à devenir la norme pour les charges de travail intensives en intelligence artificielle et en calcul haute performance, promet non seulement une augmentation significative de la vitesse, mais également une hausse de coût. Selon un rapport de l’agence d’analyse TrendForce, le prix de la HBM4 sera d’au moins 30 % supérieur à celui de l’actuelle HBM3E, qui avait déjà connu une augmentation de 20 % par rapport à son ancienne version.
Cette flambée des prix s’explique par la complexité technique de la nouvelle architecture. La HBM4 double le nombre de broches d’entrée/sortie par rapport à la HBM3E, passant de 1 024 à 2 048, ce qui implique des conceptions de puces plus grandes, coûteuses et complexes. En revanche, elle offrira une bande passante maximale pouvant atteindre 2 048 Go/s par pile à 8 Gbit/s par broche, selon les spécifications récemment validées par le consortium JEDEC.
Avantages techniques et nouveaux designs de base die
Samsung et SK Hynix, en collaboration avec des fonderies externes, développent un nouveau design appelé logic-based base die, permettant une meilleure intégration de la mémoire avec le processeur. Cette avancée vise à réduire la latence, à augmenter l’efficacité des routes de données et à garantir une transmission plus stable à grande vitesse. En comparaison, les bases die HBM3E étaient essentiellement des canaux de signal sans fonctions logiques.
Le redessin vise à répondre à la demande croissante de solutions de mémoire pour les puces d’accélération IA et la superinformatique, où chaque nanoseconde et watt compte. L’amélioration de l’intégration logique promet une mémoire plus rapide, efficace et fiable pour les futurs processeurs haut de gamme.
Marché en pleine expansion : plus de 3,75 exaoctets attendus en 2026
La demande pour la mémoire HBM ne montre aucun signe de ralentissement. TrendForce estime que le volume total des ventes de HBM — toutes générations confondues — dépassera les 30 000 millions de gigabits en 2026, ce qui équivaut à 3,75 millions de téraoctets (3,75 exaoctets). Selon leurs prévisions, la HBM4 commencera à remplacer la HBM3E comme solution principale dans la seconde moitié de l’année prochaine.
Le fabricant sud-coréen SK Hynix restera en tête du marché avec plus de 50 % de part de marché, tandis que Micron et Samsung devront accélérer leurs plans de production pour ne pas se laisser distancer dans la course à la HBM4.
Préparation à la prochaine génération d’accélérateurs
Les acteurs majeurs du marché des puces préparent déjà leurs produits pour adopter cette nouvelle technologie. Nvidia a annoncé que ses futures GPU de la génération Rubin, prévues pour 2026, intégreront la mémoire HBM4. AMD suivra également avec sa prochaine série d’accélérateurs Instinct MI400.
Parallèlement, SK Hynix a déjà commencé à expédier des échantillons de ses premiers chips HBM4, fabriqués en configurations de 12 couches. Bien que les chiffres exacts de bande passante et de capacité n’aient pas encore été révélés, il est prévu qu’ils dépassent les limites actuelles de la HBM3E, qui atteint déjà jusqu’à 1 280 Go/s par pile dans les versions de SK Hynix.
Comparatif des générations HBM (bande passante par pile)
Génération | Bande passante par broche | Bande passante par pile |
---|---|---|
HBM1 | 1,0 Gb/s | 128 Go/s |
HBM2 | 2,0 Gb/s | 256 Go/s |
HBM2E | 3,6 Gb/s | 461 Go/s |
HBM3 | 6,4 Gb/s | 819 Go/s |
HBM3E (Micron) | 9,2 Gb/s | 1 178 Go/s |
HBM3E (Samsung) | 9,8 Gb/s | 1 254 Go/s |
HBM3E (SK Hynix) | 10,0 Gb/s | 1 280 Go/s |
HBM4 | 8,0 Gb/s | 2 048 Go/s |
HBM4E (estim.) | ~10,0 Gb/s | ~2 560 Go/s |
Avec la norme HBM4 déjà approuvée par le JEDEC et les premiers échantillons en circulation, l’industrie se prépare pour un nouveau bond en termes de capacité, de vitesse… et de coût. Un prix que beaucoup seront prêts à payer s’il se traduit par un leadership sur le marché exigeant de l’intelligence artificielle.
Source : computerbase