La mémoire devient le « goulot d’étranglement » de l’IA et amplifie les prévisions pour Samsung et SK hynix

UltraRAM : la mémoire qui promet de combiner stockage et RAM en une seule puce

La course à la déploiement à grande échelle de L’Intelligence Artificielle ne se limite plus à la puissance des GPU. D’ici 2026, le secteur voit son attention se déplacer vers un composant moins flagrant mais crucial : la mémoire, en particulier la HBM (High Bandwidth Memory) et la DRAM avancée alimentant les accélérateurs dans les centres de données. Ce changement de priorités se traduit désormais de façon tangible dans les projections financières qui circulent sur le marché.

Deux tableaux de prévisions, attribués à Morgan Stanley Research, révèlent des ajustements à la hausse pour Samsung Electronics et SK hynix pour la période 2026-2028, avec un message directement pertinent pour le secteur technologique : si l’IA continue son essor comme prévu, la mémoire ne sera pas un simple composant, mais un facteur limitant susceptible de redéfinir marges, investissements et stratégie industrielle.

Samsung : quand le profit s’explique par les semi-conducteurs (et, parmi eux, par la mémoire)

Pour Samsung Electronics, les estimations révisées pour l’exercice fiscal 2027 (FY27E) anticipent une augmentation des ventes du groupe à 647 680 milliards de won contre 599 480 milliards dans le scénario précédent, soit une hausse de 8 %. Mais c’est surtout le résultat opérationnel qui fait sensation : il passe de 241 454 à 317 379, une augmentation de 31 %.

Ce changement n’est pas marginal : la marge opérationnelle estimée passe de 37,0 % à 49,0 %, soit une amélioration de 12 points de pourcentage. Dans un conglomérat multifragmenté, un tel mouvement indique généralement que le cœur de métier confirme sa domination sur le reste des divisions.

En décomposant par secteurs, l’essentiel de la croissance est attribué aux semi-conducteurs, avec une emphase particulière sur la ligne de mémoire. Pour FY27E, la division « Memory » voit ses ventes révisées à 388 347 milliards de won (+25 %), contre 309 708 milliards auparavant, et le bénéfice opérationnel atteint 279 302 milliards (+29 %). Parallèlement, la division des semi-conducteurs (DS) présente également des révisions importantes : ventes de 437 900 milliards (contre 357 471 milliards, +22 %) et bénéfice opérationnel de 279 284 milliards (contre 217 040 milliards, +29 %).

Le contraste se marque lorsque l’on observe le reste du groupe. Pour FY27E, la division « Mobile/Network » voit ses ventes révisées à la baisse (129 753 milliards, –18 %) et un repli marqué du bénéfice opérationnel à 9 885 milliards, soit une chute de 52 % par rapport à l’estimation précédente (20 672 milliards). La photo d’un marché mûr : les mobiles restent massifs, mais leur rentabilité décline face au déplacement du centre de gravité vers les data centers.

SK hynix : marges « logiciels » pour un secteur hardware… si la HBM demeure rare

Chez SK hynix, le contexte est plus concentré, puisque l’entreprise est principalement orientée mémoire. Pour FY27E, les ventes passent de 258 009 milliards de won à 304 878 milliards (+18 %) et le résultat opérationnel de 181 336 milliards à 225 354 milliards (+24 %). La marge opérationnelle prévue progresse de 70 % à 74 %, soit une hausse de 4 points.

Ce qui intrigue dans le secteur, c’est la ventilation « DRAM (& HBM) ». La tendance que le secteur raconte depuis plusieurs mois est claire : la mémoire liée à l’IA bouleverse les règles. Pour FY27E, les ventes révisées de DRAM/HBM atteignent 237 721 milliards de won (+21 %) et le bénéfice opérationnel revisité est de 187 568 milliards (+27 %). La NAND s’améliore également, mais dans une moindre mesure : ventes de 65 843 milliards (+11 %) et bénéfice opérationnel de 37 786 milliards (+14 %).

En résumé : si la chaîne d’approvisionnement maintient la tension sur la HBM, SK hynix apparaît comme une entreprise capable de préserver des marges qui, autrefois, étaient davantage associées à des services qu’à une fabrication industrielle. C’est précisément la raison pour laquelle le débat est si polarisé : certains investisseurs voient cela comme un supercycle structurel, d’autres comme un pic cyclique susceptible de s’ajuster lorsqu’une nouvelle capacité arrive sur le marché.

Pourquoi cela importe-t-il à l’écosystème IA et aux équipes d’infrastructure ?

Pour un secteur technologique, la question essentielle n’est pas tant de savoir « qui gagne le plus » en 2027, mais ce que cela indique sur la conception de l’infrastructure IA :

  • La HBM et la DRAM avancée deviennent des éléments de planification. Il ne suffit plus de réserver des GPU ; il faut également garantir mémoire et emballage dans la même phase d’investissement.
  • La pression se déplace vers l’architecture : optimiser modèles, batching, quantification et stratégies d’inférence ne relève plus uniquement de l’efficacité computationnelle, mais aussi de l’efficacité mémoire.
  • Les fabricants capables d’industrialiser de nouvelles générations et de fournir un volume stable peuvent fixer le ton du marché, tout comme cela a été le cas avec les GPU lors des premiers années du boom.

Les données mêmes renforcent cette perspective : chez Samsung, l’amélioration ne vient pas du mobile, mais du secteur des semi-conducteurs et de la mémoire. Chez SK hynix, la majeure partie du progrès s’explique par la DRAM/HBM. Il ne s’agit pas d’un simple détail comptable ; c’est une carte du pouvoir technologique dans le domaine de l’IA.

Le « grand risque » derrière ces chiffres : supercycle ou simple épisode ?

Les mêmes projections qui enthousiasment le marché portent aussi une mise en garde : il ne s’agit que de projections, dépendantes d’hypothèses sur la demande, les prix, la capacité et la rentabilité. Si la pénurie de mémoire se résorbe plus vite que prévu grâce à une augmentation de capacité, les marges pourraient se normaliser. Et si l’investissement dans l’IA devient plus sélectif — pour des raisons d’efficacité ou de rentabilité — le goulet d’étranglement pourrait se déplacer vers une autre étape de la chaîne.

Néanmoins, la transformation est déjà en marche sur le plan stratégique : pour la première fois depuis des années, la mémoire redevient un composant déterminant pour les calendriers, budgets et priorités. Et, comme le montrent ces révisions, elle commence aussi à façonner le discours financier des grandes entreprises du secteur.


Questions fréquemment posées

Qu’est-ce que la mémoire HBM et pourquoi influence-t-elle autant la performance en IA ?
La HBM est une mémoire à bande passante élevée conçue pour alimenter des accélérateurs avec une vitesse bien supérieure à celle des mémoires classiques, réduisant ainsi les goulets d’étranglement lors de l’entraînement ou de l’exécution de gros modèles.

Pourquoi les prévisions s’améliorent-elles autant pour 2027 que pour 2026 ?
Parce que le marché considère que la demande en IA n’est pas ponctuelle : elle se déploie de façon soutenue dans les centres de données, ce qui influence contrats, planification de capacité et marges sur plusieurs années.

Quel risque peut remettre en cause ce scénario à marges élevées en mémoire ?
Une libéralisation de l’offre due à une augmentation rapide de capacité, des améliorations de performance industrielles ou des changements dans la demande. Historiquement, l’équilibre entre offre et demande dans la mémoire peut évoluer rapidement.

Ces chiffres représentent-ils des revenus réels ou des estimations ?
Ce sont des estimations revisitées (Previous versus Revised) pour des exercices fiscaux (FY26E, FY27E, FY28E) en milliards de won, selon les tableaux attribués à Morgan Stanley Research.

le dernier