Dans la course à la Intelligence Artificielle (IA), les grandes batailles ne se jouent plus uniquement dans les accélérateurs ou les processeurs. De plus en plus souvent, le point limité se trouve dans la mémoire : la quantité pouvant être intégrée, la vitesse de transfert de données et, surtout, la consommation énergétique lors de ces échanges. Dans ce contexte, SK hynix a choisi le CES 2026 pour dévoiler une feuille de route qui indique directement les prochains grands progrès de l’industrie : depuis la haute capacité de la HBM4 jusqu’à de nouveaux modules conçus pour les serveurs d’IA et la mémoire mobile adaptée à “l’IA en appareil” (on-device AI).
La société sud-coréenne a annoncé l’ouverture d’un stand d’exposition pour les clients au Venetian Expo (Las Vegas), du 6 au 9 janvier 2026, avec un message résumé : “Innovative AI, Sustainable tomorrow”. À une époque où les centres de données se mesurent en densité, refroidissement et coûts opérationnels, le mot « durable » ne se limite pas à un simple slogan : il fait référence à la performance par watt et à l’efficacité sur toute la chaîne, du puce au système.
HBM4 16 couches et 48 Go : la vitrine de la mémoire de demain
Le point focal du stand sera une mémoire qui cible la prochaine génération de plateformes d’IA : la HBM4 de 16 couches avec 48 Go. SK hynix la présente pour la première fois au CES comme une évolution directe de sa HBM4 de 12 couches et 36 Go, un produit qui, selon la société, a démontré une vitesse de 11,7 Gbps et est en phase de développement “aligné avec les calendriers des clients”.
Concrètement, ce type d’annonce reflète la dynamique du marché : la mémoire HBM (High Bandwidth Memory) constitue aujourd’hui le “poumon” des accélérateurs pour l’entraînement et l’inférence. À mesure que les modèles deviennent plus grands et que les charges de travail requièrent davantage de contexte et de parallélisme, les fabricants de mémoire tentent de répondre par deux leviers : plus de capacité par pile et plus de vitesse d’E/S. L’augmentation à 48 Go en 16 couches témoigne d’une ambition sur ces deux fronts.
SK hynix n’a pas fixé de dates commerciales précises pour cette HBM4 de 48 GB lors de l’annonce du stand, mais exprime une intention claire : orienter ses partenaires et clients vers la direction que prendra son catalogue, lorsque l’industrie commencera à déployer de nouvelles générations de matériel d’IA.
HBM3E 36 GB : la mémoire “qui fera bouger le marché cette année”
En plus de la HBM4, la société présentera également une HBM3E de 12 couches avec 36 GB, qu’elle qualifie de produit destiné à propulser le marché “cette année”. Au-delà du titre, cet aspect est crucial : la HBM3E est aujourd’hui une technologie clé dans l’infrastructure IA actuelle, et SK hyinx souhaite renforcer son rôle de fournisseur de référence.
De plus, la société a indiqué qu’elle coexposera des modules GPU pour serveurs d’IA intégrant la HBM3E en collaboration avec un client, pour illustrer le rôle de cette mémoire dans le système complet. Cela permet de “rendre concret” l’annonce : il ne s’agit pas uniquement d’un composant isolé, mais de sa place dans le produit final qui sera déployé dans les centres de données.
SOCAMM2 : modules faibles en consommation pour serveurs d’IA
Parmi les points forts du stand figure SOCAMM2, présenté comme un module de mémoire à basse consommation spécialement conçu pour les serveurs d’IA. Sa présence traduit une transition accélérée : la croissance de l’IA exige non seulement un débit extrême à proximité de l’accélérateur (HBM), mais aussi une mémoire efficace et modulaire pour le reste du système, autant en termes de consommation que de scalabilité.
Dans le discours de SK hynix, SOCAMM2 souligne que l’offre ne se limite pas à la HBM, mais couvre l’intégralité du “système”. En d’autres termes : l’IA ne se construit pas uniquement avec un seul “chip brillant”, mais avec la somme de mémoire, d’interconnexions et de stockage qui progressent ensemble au même rythme.
LPDDR6 : plus de vitesse et d’efficacité pour l’IA intégrée
En parallèle du centre de données, SK hynix dévoilera également LPDDR6, destinée à l’IA en appareil. La société affirme que cette génération offre une amélioration significative en termes de vitesse de traitement et d’efficacité énergétique par rapport aux versions antérieures.
Ce type de mémoire est essentiel pour une raison précise : le développement d’applications en local (portables, mobiles, dispositifs industriels ou automobiles) est en plein essor, favorisé par la confidentialité, la latence et la réduction des coûts. Pour que cette “IA locale” soit viable, la mémoire mobile doit suivre : il ne suffit pas d’avoir des NPU ou des accélérateurs, il faut aussi alimenter le système efficacement en données.
NAND de 321 couches et 2 Tb QLC : capacité pour les eSSD dans les centres de données IA
Le salon ne se limite pas à la DRAM. En NAND, SK hynix présentera une mémoire QLC de 321 couches et 2 Tb, conçue pour des eSSD à ultra haute capacité, un segment en pleine expansion avec l’essor des centres de données dédiés à l’IA. La société affirme que, grâce à une intégration “de la meilleure qualité du secteur”, ce produit améliore l’efficacité énergétique et la performance par rapport aux précédentes générations de QLC, un avantage crucial dans des environnements où chaque watt compte.
L’idée principale est claire : les projets d’IA ne se limitent pas à la puissance de calcul, ils nécessitent également un stockage volumineux. Les stratégies de stockage deviennent ainsi un élément stratégique pour contenir les coûts et permettre une montée en charge efficace.
Zone de démonstration “AI System Demo Zone” : quand la mémoire veut participer à la tâche
Un des éléments les plus innovants est la création d’une zone de démonstration de système (“AI System Demo Zone”) pour illustrer comment leurs solutions s’interconnectent et forment un véritable écosystème. SK hynix adopte une approche plus futuriste : présentera une maquette à grande échelle du cHBM (Custom HBM), illustrant la nouvelle tendance du secteur, qui passe d’un “plus de performance brute” à “plus d’efficacité d’inférence et d’optimisation des coûts”.
Le concept de cHBM, selon la société, consiste à intégrer dans le “dies” de base de la HBM certaines fonctions traditionnellement dévolues aux GPU ou ASIC, dans le but d’améliorer l’efficacité globale du système en réduisant l’énergie nécessaire au transfert des données.
Dans cette même zone, SK hynix évoque d’autres axes de recherche et concepts partagés autour d’un objectif commun : réduire le coût de déplacement des données.
- PIM (Processing-In-Memory), mémoire avec capacités de calcul pour atténuer le goulot d’étranglement du transfert de données.
- AiMX, une carte accélératrice prototype basée sur un chip spécialisé pour les modèles linguistiques.
- CuD (Compute-using-DRAM), destinée à exécuter de simples calculs directement dans la mémoire.
- CMM-Ax, module combinant capacités de calcul et extension mémoire via CXL.
- Data-aware CSD, stockage capable de traiter ses données de manière autonome.
Plus que de simples produits, ces propositions envoient un message : l’avenir de l’IA ne dépend pas uniquement d’une accumulation de GPU, mais d’un reconditionnement du système pour que la mémoire et le stockage cessent d’être passifs.
Une stratégie centrée sur le client et sur la “nouvelle valeur” de l’IA
Lors du CES, SK hynix insiste également sur son changement de priorités : cette année, le stand destiné aux clients devient un point de rencontre privilégié avec ses partenaires clés, pour discuter collaborations et innovations. En mots de Justin Kim, président et responsable de l’Infra IA chez SK hynix, les exigences techniques des clients “évoluent rapidement”, et la société souhaite répondre par des solutions différenciées et une collaboration étroite, pour “créer une nouvelle valeur” dans l’écosystème IA.
Ce message reflète bien la réalité du marché : le rythme de déploiement de l’IA pousse toute la chaîne — mémoire, interconnexion, stockage — à évoluer à la vitesse des modèles. Le CES 2026 n’est pas simplement une vitrine, mais un lieu de négociation pour l’avenir immédiat du hardware qui soutiendra la prochaine vague d’Intelligence Artificielle.
Questions fréquemment posées
Quels bénéfices la mémoire HBM4 de 48 GB offre-t-elle par rapport aux générations précédentes dans l’infrastructure d’Intelligence Artificielle ?
Elle propose une capacité accrue par pile et vise des vitesses de transfert plus élevées, essentielles pour alimenter les accélérateurs avec des charges d’entraînement et d’inférence de plus en plus exigeantes.
À quoi sert SOCAMM2 dans les serveurs d’IA, et pourquoi insiste-t-on sur sa faible consommation ?
SOCAMM2 est conçu comme un module spécialisé pour les serveurs IA, où la consommation et l’efficacité énergétique sont cruciales pour augmenter la capacité sans faire exploser les coûts énergétiques.
Qu’est-ce que le cHBM (Custom HBM) et pourquoi parle-t-on maintenant “d’efficacité d’inférence” ?
cHBM consiste à intégrer des fonctions supplémentaires dans la mémoire HBM afin de réduire les déplacements de données et d’améliorer l’efficacité globale du système. L’inférence prend de l’importance car de nombreuses organisations cherchent à diminuer le coût du déploiement de modèles en production.
Pourquoi un NAND QLC de 321 couches et 2 Tb est-il pertinent pour les centres de données IA ?
Parce que les déploiements IA nécessitent des solutions de stockage massives pour les données, modèles et pipelines ; l’amélioration de la densité et de l’efficacité énergétique dans le NAND contribue à maîtriser les coûts à grande échelle.