NVIDIA prépare le déploiement de jusqu’à 800 000 modules SOCAMM dans ses produits d’intelligence artificielle cette année

NVIDIA prépare le déploiement de jusqu'à 800 000 modules SOCAMM dans ses produits d'intelligence artificielle cette année

NVIDIA annonce le lancement de nouvelles modules de mémoire LPDDR modulaires conçus pour améliorer l’efficacité énergétique, la bande passante et la facilité de mise à jour dans les PC et serveurs dédiés à l’intelligence artificielle. Selon le média sud-coréen ETNews, la société prévoit de produire entre 600 000 et 800 000 unités de ses modules SOCAMM (Smart On-Board Compression Attached Memory Modules) cette année, en vue de leur intégration dans sa nouvelle plateforme IA.

Lors du récent événement GTC, NVIDIA a présenté l’innovation SOCAMM, qui établit une nouvelle norme de mémoire LPDDR adaptée aux centres de données, initialement développée par Micron. Contrairement aux solutions traditionnelles comme la HBM ou la LPDDR5X, ces modules modulaires sont interchangeables, facilitant ainsi les évolutions futures par un montage simple à l’aide de trois vis. La plateforme GB300 Blackwell est parmi les premières à utiliser cette technologie, témoignant de la volonté de NVIDIA d’adopter un nouveau standard dans ses produits IA.

Les modules SOCAMM offrent plusieurs avantages, notamment une efficacité énergétique élevée, un format compact et des débits de bande passante remarquables, compris entre 150 et 250 GB/s, surpassant largement ceux des RDIMM ou LPDDR5X classiques. Leur modularité permet d’élargir la mémoire sans avoir à remplacer totalement la carte ou le système, ce qui en fait une solution idéale pour les PC et serveurs d’IA à faible consommation.

Bien que la production prévue pour cette année reste inférieure au volume de mémoire HBM que NVIDIA a reçu de ses partenaires, une montée en puissance massive est attendue pour 2026 avec l’arrivée de la seconde génération, SOCAMM 2.

Micron demeure le principal fabricant de ces modules pour NVIDIA, mais des discussions sont en cours avec Samsung et SK Hynix pour augmenter la capacité de production et sécuriser la chaîne d’approvisionnement. Conçus spécifiquement pour répondre aux besoins en infrastructure IA, ces modules mettent l’accent sur la consommation d’énergie, la densité, la capacité d’évolution et la rapidité.

L’introduction de SOCAMM représente une rupture dans la conception et la scalabilité des systèmes IA. En permettant le remplacement et l’amélioration de la mémoire sans changer l’intégralité du système, NVIDIA ouvre la voie à une nouvelle ère de modularité et de durabilité dans le matériel pour l’intelligence artificielle. Au-delà de NVIDIA, cette technologie pourrait bien instaurer une nouvelle norme pour d’autres architectures, combinant efficacité énergétique, performances extrêmes et évolutivité pour des centres de données, stations de travail et dispositifs edge.

Avec l’arrivée de SOCAMM 2 et l’intérêt croissant des grands acteurs du secteur de la mémoire, il semble que ce format modulaire à faible consommation d’énergie occupera une place centrale dans le futur de l’informatique intelligente.

le dernier