Samsung Electronics intensifie ses efforts sur le marché concurrentiel des mémoires à haute performance (HBM). Selon des médias sud-coréens tels qu’EBN, la société est en train de redessiner son produit HBM3E 12H de 36 Go, dans le but d’obtenir la validation de NVIDIA plus tôt que prévu, dès mai de cette année.
HBM3E 12H : plus de performance, plus de capacité
La HBM3E 12H se positionne comme la mémoire HBM de la plus grande capacité sur le marché, avec une pile de 12 couches atteignant 36 Go et une largeur de bande allant jusqu’à 1 280 Go/s, ce qui représente un bond de plus de 50 % par rapport à l’actuelle HBM3 8H à huit couches. Ces chiffres constituent une avancée majeure en termes de performance pour des applications d’IA de pointe, qui exigent une vitesse, une capacité et une efficacité énergétique accrues.
L’un des éléments clés de cette avancée est l’intégration de la technologie TC NCF (film non conducteur de compression thermique). Cette innovation permet de maintenir la même hauteur physique que les versions précédentes, tout en comptant plus de couches, et réduit la déformation des puces, améliore la dissipation thermique et optimise le rendement.
Le défi : obtenir la validation de NVIDIA
Samsung avait déjà soumis des échantillons à NVIDIA, mais ceux-ci n’avaient pas atteint les niveaux de performance exigés par l’entreprise américaine. Ainsi, un redesign accéléré a été lancé pour répondre aux normes strictes du leader des accélérateurs d’IA. Si la validation est obtenue en mai, comme prévu, cela ouvrirait la voie à une production de masse au premier semestre 2025, juste à temps pour rivaliser avec les solutions de SK Hynix et Micron.
Il est important de rappeler que NVIDIA utilise des mémoires HBM dans sa gamme de GPU pour les centres de données, où chaque amélioration en capacité et en largeur de bande se traduit par de meilleures performances dans l’entraînement de modèles de langage (LLMs), le traitement de l’IA et les environnements HPC.
Vers l’ère de l’intelligence artificielle à grande échelle
L’utilisation de mémoires HBM comme la HBM3E 12H permet d’accroître considérablement l’efficacité des centres de données. Selon des estimations internes de Samsung, la vitesse d’entraînement en IA pourrait augmenter de 34 %, et le nombre d’utilisateurs simultanés de services d’inférence pourrait être multiplié par 11,5 par rapport aux systèmes utilisant HBM3 8H.
Toute cela a des implications directes pour les entreprises opérant à grande échelle dans le cloud et l’IA. Un nombre réduit de puces de plus grande capacité réduit le coût total de possession (TCO), améliore la consommation d’énergie et permet des architectures plus compactes et évolutives.
En parallèle : Samsung développe déjà HBM4
En plus de rechercher l’approbation de NVIDIA, Samsung travaille déjà sur la prochaine génération : HBM4, utilisant son nouveau processus de fabrication 1c. Initialement prévu pour fin 2024, le développement a été retardé et devrait être prêt en juin 2025.
Le deuxième trimestre de cette année s’annonce donc crucial pour Samsung, qui aspire à retrouver sa position de leader dans un marché dominé par la forte demande de solutions pour l’IA générative et le cloud computing.