SK hynix a annoncé le lancement de la production de masse de son module SOCAMM2 de 192 Go, une mémoire LPDDR5X à faible consommation énergétique fabriquée selon leur procédé 1CnM — la sixième génération de la technologie de 10 nanomètres — destinée à la prochaine plateforme NVIDIA Vera Rubin. La firme sud-coréenne affirme que cette avancée consolide sa position dans l’une des batailles les plus cruciales de l’infrastructure en intelligence artificielle : celle de la mémoire efficace pour les serveurs de nouvelle génération.
Cette nouvelle est importante car le goulet d’étranglement en IA ne se limite plus uniquement aux GPU. Il concerne également la manière d’alimenter ces systèmes avec une capacité, une bande passante et une efficacité énergétique suffisantes, sans faire exploser la consommation électrique par rack. Dans ce contexte, SOCAMM2 tente d’ouvrir une voie différente de celle des RDIMM traditionnels, en adaptant la mémoire LPDDR basse consommation — habituellement utilisée dans les mobiles — à l’environnement des centres de données et des serveurs IA.
Qu’est-ce que SOCAMM2 et pourquoi commence-t-il à prendre de l’ampleur ?
SK hynix définit SOCAMM2 comme un module optimisé pour les serveurs d’IA basé sur LPDDR, avec un format fin, une haute évolutivité et un connecteur à compression conçu pour améliorer l’intégrité du signal et faciliter le remplacement du module. La société assure que sa nouvelle solution de 192 Go offre plus du double de bande passante et une amélioration de l’efficacité énergétique de plus de 75 % par rapport aux modules RDIMM conventionnels, selon ses propres métriques internes.
Ce positionnement s’inscrit dans l’architecture de la plateforme Vera Rubin. NVIDIA explique que son CPU Vera est conçu pour les charges lourdes en données et en mémoire, avec 88 cœurs intégrés, compatibilité Arm, et jusqu’à 1,2 To/s de bande passante LPDDR5X. En langage marché, cela signifie que Rubin ne nécessite pas seulement des accélérateurs puissants, mais aussi une hiérarchie mémoire beaucoup plus raffinée afin d’éviter que le système perde en performance à cause de l’accès aux données.
Le véritable atout de SOCAMM2 réside précisément dans cela : combiner une capacité élevée et une consommation réduite dans une architecture modulaire. Contrairement à des solutions entièrement soudées ou plus fermées, ce format maintient un certain degré de service et de remplaçabilité, ce qui est précieux dans les centres de données où la maintenance et la scalabilité jouent un rôle déterminant. Il ne s’agit donc pas seulement d’une RAM « plus rapide », mais d’un composant conçu pour répondre à des compromis très précis entre performance, consommation et densité.
Une course qui ne concerne plus uniquement SK hynix
Ce lancement montre également que la compétition autour de SOCAMM2 s’accélère. Micron avait déjà pris des initiatives dans cette direction et se présente comme le premier fournisseur à proposer un format modulaire de classe centre de données pour LPDDR5X. En mars, Micron a annoncé son SOCAMM2 de 256 Go, avec une gamme allant de 48 Go à 256 Go, liée également aux systèmes NVIDIA Vera Rubin NVL72 et aux plateformes CPU Vera indépendantes. Selon Micron, cette configuration permettrait d’atteindre 2 To de mémoire par CPU et jusqu’à 1,2 To/s de bande passante par processeur.
Ce mouvement de SK hynix va bien au-delà d’une simple amélioration incrémentielle. La société entre franchement dans une catégorie où la mémoire ne devient plus simplement un composant interchangeable, mais une partie centrale de l’architecture du système. En d’autres termes, elle ne se limite pas à concurrencer sur la vente de puces DRAM classiques, mais cherche à jouer un rôle clé dans l’écosystème de référence NVIDIA pour la prochaine vague d’infrastructures IA.
Par ailleurs, l’utilisation de LPDDR dans les serveurs IA introduit une logique différente de celle de la mémoire traditionnelle en centres de données. Micron soutient depuis plusieurs mois que ces modules permettent de réduire la consommation et l’empreinte physique par rapport aux RDIMM, tandis que SK hynix met désormais en avant le saut en bande passante et en efficacité énergétique de sa solution de 192 Go. Bien que les chiffres exacts varient selon les fabricants et les conditions de test, l’essentiel reste : le marché commence à percevoir que la mémoire à basse consommation ne concerne plus seulement les portables ou smartphones, mais aussi les serveurs.
Contexte réel : plus d’IA, plus de densité, moins de marge énergétique
La annonce de SK hynix intervient à un moment où chaque watt compte. La croissance des charges d’entraînement et d’inférence pour de grands modèles a accru la pression sur la mémoire du système, pas seulement sur la HBM associée aux GPU. Les CPU, le sous-système mémoire principal, et la capacité à déplacer efficacement les données dans le nœud sont devenus essentiels pour maintenir la performance face à des modèles aux contextes étendus et aux besoins de flux de données accrus.
SK hynix insiste ainsi sur le fait que son SOCAMM2 de 192 Go est conçu pour atténuer les goulets d’étranglement lors de l’entraînement et de l’inférence de grands modèles linguistiques. C’est une affirmation commerciale, certes, mais qui traduit un enjeu réel du secteur : le décalage entre la capacité de calcul accélérée et la capacité du système à soutenir cette accélération de manière efficiente. À mesure que les racks IA gagnent en puissance, la mémoire cesse d’être un simple accessoire pour devenir une limitation structurelle si elle n’évolue pas au même rythme.
La mise en production en masse annoncée par SK hynix suggère enfin que SOCAMM2 dépasse la phase de promesse technologique pour entrer dans celle du déploiement réel. Reste à voir quelle sera l’ampleur de cette adoption, comment réagiront les autres acteurs, et dans quelle mesure NVIDIA intégrera cette catégorie de mémoire comme un des piliers de ses futures plateformes. Mais une chose apparaîtra déjà clairement : la prochaine grande bataille en IA ne se jouera pas uniquement sur le GPU ou la HBM, mais aussi dans cette mémoire système qui, jusqu’à récemment, semblait secondaire, et qui devient désormais un enjeu essentiel.
Foire aux questions
Qu’est-ce que SOCAMM2 exactement ?
SOCAMM2 est un module mémoire basé sur LPDDR conçu pour les serveurs IA. Il vise à offrir une haute capacité, une faible consommation et un format modulaire avec un connecteur à compression pour améliorer la signalisation, la maintenance et la scalabilité.
Pour quelle plateforme le nouveau module de SK hynix est-il conçu ?
SK hynix indique que son SOCAMM2 de 192 Go est destiné à la plateforme NVIDIA Vera Rubin. NVIDIA, de son côté, présente Vera comme une architecture pouvant atteindre jusqu’à 1,2 To/s de bande passante LPDDR5X dans la CPU Vera.
En quoi se différencie-t-il de la mémoire RDIMM traditionnelle ?
Selon SK hynix, son module offre plus du double de bande passante et une amélioration de l’efficacité énergétique de plus de 75 % par rapport aux RDIMM conventionnels. Ces chiffres sont fournis par la société elle-même.
SK hynix est-elle la seule entreprise à miser sur SOCAMM2 ?
Non. Micron a également annoncé ses propres modules SOCAMM2 pour l’écosystème Vera Rubin, avec des versions de 192 Go et 256 Go, ce qui confirme que cette catégorie est en voie de consolidation comme nouvelle stratégie mémoire pour l’IA.
Source : news.skhynix