Micron explore l’empilement de GDDR pour l’IA et ouvre un nouveau front dans la guerre de la mémoire

Micron augmente la mise avec GDDR7 de 24 Gbit et 36 Gb/s : plus de VRAM et plus de bande passante pour la prochaine vague de GPU

Micron prépare une évolution susceptible de bouleverser le paysage de la mémoire pour l’Intelligence Artificielle. Selon une information publiée par ETNews, la société américaine a lancé le développement d’une nouvelle génération de GDDR empilée, une technologie visant à combiner certains avantages de l’HBM avec un coût relativement plus faible par rapport à la mémoire graphique traditionnelle. L’objectif est de répondre à une demande de mémoire pour IA de plus en plus diversifiée, où toutes ne se limitent pas à l’HBM la plus avancée et coûteuse, mais incluent aussi des solutions intermédiaires pour l’inférence, des accélérateurs plus abordables, et de nouvelles architectures de GPU.

La clé de cette initiative repose sur le concept. La GDDR, jusqu’ici mémoire standard pour cartes graphiques, consoles et applications visuelles, cède la place à une GDDR empilée verticalement offrant plus de capacité et de performance que la GDDR classique, tout en restant probablement en dessous de l’HBM en termes de performance brute. Selon ETNews, Micron aurait déjà lancé le processus de développement, avec des plans pour disposer du matériel en fin d’année 2026, et commencer les tests de fabrication vers la seconde moitié de 2026 ; les premières échantillons pourraient être disponibles dès 2027.

Une réponse à un marché IA qui ne veut plus d’une seule mémoire

Ce mouvement ne sort pas du hasard. La mémoire pour IA devient beaucoup plus complexe qu’il y a seulement deux ans. La croissance fulgurante des grands clusters d’entraînement a fait de l’HBM le principal goulot d’étranglement du secteur, poussant des fabricants comme Micron, Samsung et SK hynix à investir massivement pour augmenter la capacité. Micron avait récemment confirmé une forte demande de mémoire, alimentée par les centres de données et l’expansion de l’IA, dans un contexte où l’offre reste tendue.

Par ailleurs, le marché commence à se fragmenter. Toutes les charges de travail en IA n’exigent pas la solution la plus coûteuse et la plus extrême. En inference, edge AI, accélérateurs spécialisés ou certains profils de GPU, la relation coût-capacité et bande passante peuvent justifier l’utilisation de mémoires différentes de l’HBM classique. La GDDR empilée pourrait alors constituer une réponse adaptée : offrir davantage de densité et de performance que la GDDR traditionnelle, sans faire exploser le coût comme avec l’HBM. Cette analyse s’appuie sur le positionnement évoqué par ETNews et le contexte actuel du marché de la mémoire pour IA.

Ce que l’on sait sur le plan de Micron jusqu’à présent

Les informations disponibles restent limitées et ne proviennent pas d’un communiqué officiel de Micron annonçant un produit commercial. ETNews indique que la société travaille sur une architecture de GDDR empilée verticalement, avec une configuration initiale pouvant comporter environ quatre couches, probablement répondant à des demandes de clients liés aux accélérateurs IA et autres usages à haute performance. Aucune spécification précise, ni vitesse, ni consommation, ni format final de packaging n’a encore été communiqué.

Ce que l’on sait d’après des sources officielles récentes, c’est que Micron intensifie sa présence dans le domaine de la GDDR. Fin février, la société a présenté des mémoires GDDR7 de 24 Gb avec des vitesses allant jusqu’à 36 Gb/s, représentant une amélioration de 12,5 % par rapport aux premiers modules GDDR7 tournant autour de 32 Gb/s. Cette évolution confirme l’intention de renforcer toute cette gamme de mémoires, au-delà de la seule orientation HBM.

L’écart entre l’HBM et la GDDR classique

Si Micron parvient à concrétiser cette technologie, elle pourrait ouvrir une nouvelle catégorie très intéressante sur le marché de la mémoire. L’HBM restera la solution privilégiée pour les systèmes d’entraînement les plus exigeants, où le bande passante est la priorité absolue. Cependant, entre ce haut de gamme et la GDDR traditionnelle, il existe un espace potentiel pour une mémoire offrant une meilleure densité, un bande passante effectif supérieur, tout en restant à un coût plus accessible. ETNews avance que la GDDR empilée pourrait se positionner à cet endroit intermédiaire.

Ce segment pourrait séduire non seulement pour l’inférence IA, mais aussi pour certains GPU haute performance, accélérateurs spécialisés, et potentiellement, à terme, des GPU gaming premium si les contraintes thermiques et économiques sont favorablement équilibrées. Cependant, il faut rester prudent : cette utilisation dans le gaming reste une piste de marché plutôt qu’un plan confirmé. La priorité initiale semble clairement orientée vers l’IA et l’accélération professionnelle.

Le grand défi : chaleur, consommation et coût

Ce qui pose le plus de difficultés n’est pas l’idée en soi, mais sa mise en œuvre. Empiler des GDDR n’est pas simplement une question de « faire une HBM moins chère ». La GDDR est conçue avec d’autres compromis électriques, thermiques et d’emballage. ETNews mentionne plusieurs défis : la méthode d’empilement entre les puces GDDR, la gestion de la consommation d’énergie, la dissipation thermique, et surtout, le coût additionnel du processus d’empilement. Si le coût final se rapproche trop de celui de l’HBM, l’avantage compétitif s’amenuise considérablement.

C’est ce qui constitue la limite réelle du projet. L’HBM justifie son prix parce qu’elle offre un saut énorme en bande passante et en efficacité d’interconnexion pour une IA haut de gamme. La GDDR empilée ne sera commercialement pertinente que si elle parvient à rester largement en dessous en prix tout en fournissant des performances et une capacité supérieures à la GDDR traditionnelle. Sans cet équilibre, elle pourrait finir comme une curiosité technique, plutôt qu’une catégorie rentable.

Un message direct à Samsung et SK hynix

Il existe aussi une lecture compétitive évidente. ETNews souligne que Micron serait la première à tenter cette voie commercialement, ce qui lui offrirait une opportunité de devancer Samsung et SK hynix dans un nouveau sous-segment de la mémoire. Cela est crucial car la bataille actuelle ne se limite plus à la domination de l’HBM4 ou à la signature de contrats avec NVIDIA et autres géants de l’IA, mais consiste aussi à identifier en avance les prochaines étapes du marché.

À mesure que l’IA s’étend à davantage d’accélérateurs, dispositifs et gammes de prix, la mémoire devra se diversifier. Et c’est précisément ce que semble anticiper Micron : un futur où plusieurs familles de mémoire coexisteront, compétition selon la charge, le coût et l’architecture.

Questions fréquentes

Qu’est-ce que la GDDR empilée que Micron pourrait développer ?
Ce serait une évolution de la mémoire graphique GDDR où plusieurs puces sont empilées verticalement pour augmenter capacité et performance, en s’approchant partiellement de la logique de l’HBM.

Micron a-t-elle officiellement annoncé ce produit ?
Non. Les informations proviennent de ETNews et indiquent qu’il s’agit d’un projet en cours de développement, sans lancement commercial officiel annoncé par Micron pour l’instant.

À quoi servirait une telle mémoire ?
Principalement à combler un espace intermédiaire entre l’HBM et la GDDR classique, notamment pour l’inférence IA, les accélérateurs spécialisés, et potentiellement certaines GPU haut de gamme. Cette dernière application reste une spéculation basée sur le contexte marché, sans spécification officielle confirmée.

Quels sont les risques techniques liés à cette technologie ?
Les principaux défis concernent le procédé d’empilement physique entre chips, la gestion thermique, la consommation électrique, et le maintien d’un rapport coût/performance avantageux par rapport à l’HBM.

via : etnews

le dernier