Depuis des années, la discussion sur la performance en intelligence artificielle se concentrait principalement sur la puissance de calcul : davantage de GPU, plus de cœurs, plus de FLOPs. Cependant, à mesure que les modèles s’accroissent et que les architectures deviennent plus parallèles, le goulet d’étranglement se déplace vers un domaine moins « sexy » mais tout aussi crucial : la mémoire. Plus précisément, l’accès à une mémoire à très haut débit et à faible latence devient le facteur déterminant du rendement d’un cluster… et du coût de son fonctionnement.
Dans ce contexte, apparaît ZAM (Z-Angle Memory), une solution de mémoire empilée qu’Intel développe en partenariat avec SAIMEMORY, une filiale affiliée à SoftBank, portant une ambition claire : offrir une alternative à la HBM (High Bandwidth Memory), qui est aujourd’hui le standard de facto pour alimenter les GPU et accélérateurs en charge de l’IA à grande échelle.
Pourquoi la HBM est devenue le « goulot d’étranglement » de l’IA
La HBM ne se limite pas à être « une RAM supplémentaire ». C’est une mémoire DRAM empaquetée verticalement en empilement grâce à des technologies avancées (2.5D/3D), conçue pour délivrer un débit énorme tout en offrant une meilleure efficacité énergétique comparée à d’autres approches. Le résultat est évident : pour un entraînement ou une inférence exigeants, la capacité à transférer rapidement des données de la mémoire vers les unités de calcul peut valoir autant que le processeur lui-même.
Le problème réside dans le coût industriel : fabriquer de la HBM à grande échelle exige des procédés sophistiqués, un empaquetage avancé et une capacité de production concentrée. Par ailleurs, le marché de la HBM est dominé par un nombre très réduit de fournisseurs, ce qui influence directement les prix, la disponibilité et le pouvoir de négociation.
Avec la croissance de la demande en IA, la pression sur la chaîne d’approvisionnement de la HBM n’est plus secondaire : elle impacte directement les calendriers de déploiement, les investissements en capital (CapEx) des centres de données, et en pratique, détermine qui peut évoluer et qui ne peut pas.
Qu’est-ce que ZAM et pourquoi Intel et SoftBank pensent qu’il peut changer la donne
Ce partenariat place Intel en position de leader technologique et d’innovation, tandis que SAIMEMORY prend en charge le développement et la commercialisation. Selon le calendrier publié, les travaux débuteront au premier trimestre 2026, avec des prototypes prévus en 2027 et un déploiement à grande échelle attendu vers 2030.
Le nom « ZAM » n’est pas anodin : il fait référence à l’axe Z, c’est-à-dire à une stratégie d’empaquetage vertical visant à augmenter la densité et la performance « en empilant » plutôt qu’en étendant la surface. La même source indique que SoftBank prévoit d’investir environ 3 milliards de yens jusqu’à la fin de la phase de prototype (année fiscale 2027).
La promesse technique de ZAM est ambitieuse pour un marché déjà mature : on parle de mémoires avec 2 à 3 fois la capacité de la HBM, consommant « jusqu’à la moitié » de l’énergie, tout en proposant des coûts comparables ou inférieurs. Selon des estimations citées par des médias spécialisés, l’objectif serait de réduire la consommation de 40 à 50 % et de ramener le coût de fabrication à environ 60 % de celui de la HBM.
Si ces chiffres se confirment en production, l’impact serait immédiat : plus de mémoire par accélérateur, moins de kW par gigaoctet, et potentiellement une moindre dépendance à une offre concentrée.
Le facteur différenciateur : pas seulement la mémoire, mais aussi l’empaquetage
Le progrès de la HBM ne repose pas uniquement sur « le type de mémoire », mais aussi sur comment elle est intégrée. À ce titre, Intel entend miser sur une technologie qu’il maîtrise bien : l’empaquetage avancé. D’après TrendForce, l’utilisation d’EMIB (Embedded Multi-die Interconnect Bridge) est évoquée comme une approche pour optimiser les interconnexions dans les architectures empilées.
En clair : le débat ne se limite pas à DRAM vs DRAM, mais concerne aussi l’architecture complète d’empilement, d’interconnexion et de fabrication à grande échelle.
De plus, l’expérience récente d’Intel dans les technologies de mémoire et d’empaquetage fournit des précédents : ses collaborations avec Sandia National Laboratories, notamment sur ce que l’on appelle le Next-Generation DRAM Bonding (NGDB), constituent une base technologique pour de nouvelles méthodes d’empilement permettant de dépasser les limites de capacité et d’évoluer vers des mémoires « haute performance » manufacturables à grande échelle.
Remplaçant réel de la HBM… ou complément avec des niches bien identifiées ?
La question que beaucoup se posent (et que certains titres alimentent déjà) est de savoir si ZAM pourra « remplacer » la HBM. À court terme, le calendrier seul incite à la prudence : prototypes en 2027 et déploiement à grande échelle d’ici 2030, dans le meilleur des cas.
Il semble donc plus probable que ZAM soit une option stratégique pour la seconde moitié de la décennie plutôt qu’un remplaçant immédiat pour la saturation actuelle de la HBM.
Mais, même comme complément, ZAM pourrait s’avérer pertinent dans certains scénarios :
- Serveurs IA de taille petite à moyenne où le coût total (mémoire + énergie + refroidissement) est un frein, et où la « prime » HBM est difficile à justifier.
- Edge computing et déploiements distribués, où l’efficience thermique et énergétique est cruciale, et où une mémoire empilée plus efficace pourrait faire la différence.
La clé sera de démontrer non seulement un haut débit et une forte densité, mais aussi une fiabilité à volume, un rendement industriel (yield), une compatibilité avec les chaînes d’approvisionnement et, surtout, une intégration effective avec les accélérateurs et plateformes existantes.
Lecture stratégique : la mémoire comme arme compétitive dans l’écosystème IA
La démarche d’Intel et SoftBank illustre une tendance plus large : la course à l’IA ne se limite plus uniquement à la conception de puces, mais à la maîtrise du triangle calcul + mémoire + énergie. Pour les hyperscalers et le marché du colocation, cela dépasse le simple aspect technologique : c’est une question essentielle pour la rentabilité.
Si le marché reste tendu par l’offre de HBM, toute alternative crédible — même si elle n’arrive qu’en 2029 ou 2030 — peut d’ores et déjà influencer la dynamique : pression sur les fournisseurs, stimulation des investissements, diversification des stratégies mémoire. Mais la crédibilité dans ce domaine ne s’obtient qu’avec des prototypes fonctionnels, des voies de fabrication claires et des partenaires capables d’industrialiser.
Questions fréquentes
Quel problème ZAM cherche-t-il à résoudre face à la HBM dans les centres de données IA ?
Augmenter la capacité et l’efficacité énergétique de la mémoire empilée, tout en réduisant le coût par performance et en atténuant la dépendance à une offre de HBM très concentrée.
Quand Z-Angle Memory (ZAM) pourrait-il être disponible pour la production ?
Les indications publiques évoquent des prototypes en 2027 et un déploiement à l’échelle vers 2030.
ZAM remplacera-t-il la HBM dans les GPU et accélérateurs IA ?
Le scénario le plus réaliste à court terme semble plutôt une coexistence ou un remplacement partiel dans certains segments. La transition dépendra des performances réelles, de la fiabilité, des coûts et de la facilité d’intégration aux plateformes existantes.
Quel rôle jouent des technologies comme EMIB dans ces nouvelles mémoires empilées ?
L’empaquetage et l’interconnexion sont critiques : des approches comme EMIB sont considérées comme essentielles pour connecter efficacement ces puces empilées, un enjeu clé pour pouvoir rivaliser avec des architectures de type HBM.