Micron avertit : l’IA commence à peine et déjà tend le marché de la mémoire

Micron augmente la mise avec GDDR7 de 24 Gbit et 36 Gb/s : plus de VRAM et plus de bande passante pour la prochaine vague de GPU

La fièvre autour des accélérateurs d’Intelligence Artificielle s’est souvent concentrée sur les GPU, les centres de données et l’énergie nécessaire à leur alimentation. Pourtant, une pièce moins visible commence à conditionner toute la chaîne : la mémoire. Sans quantité suffisante de DRAM, NAND et HBM, les modèles ne s’entraînent pas ou ne répondent pas au rythme promis par leurs fabricants.

Micron l’a récemment affirmé par des résultats records et un message encore plus fort : la demande actuelle de mémoire pour l’IA n’est que le début. Sanjay Mehrotra, président et CEO de l’entreprise, a décrit cette phase comme les « premiers innings » d’une transformation qui, selon lui, nécessitera davantage de capacité, de bande passante et d’efficacité à chaque nouvelle génération de serveurs et d’accélérateurs.

Un trimestre historique pour Micron

Micron a clôturé son deuxième trimestre fiscal 2026, terminé le 26 février, avec un chiffre d’affaires de 23,86 milliards de dollars, contre 13,64 milliards au trimestre précédent et 8,05 milliards un an auparavant. Le bénéfice net GAAP s’établit à 13,79 milliards de dollars, ou 12,07 dollars par action diluée. Le bénéfice net hors GAAP a atteint 14,02 milliards, soit 12,20 dollars par action.

La société a également enregistré un flux de trésorerie opérationnel de 11,9 milliards de dollars et un flux de trésorerie libre ajusté de 6,9 milliards. Des chiffres peu courants même pour un fabricant de mémoire en plein cycle favorable. La marge brute hors GAAP s’est établie à 74,9 %, nettement au-dessus des 37,9 % du même trimestre de l’année précédente.

Mesures financières T2 2026 Résultats T2 2025
Chiffre d’affaires 23,86 milliards de dollars 8,05 milliards
Bénéfice net GAAP 13,79 milliards de dollars 1,58 milliards
EPS dilué GAAP 12,07 dollars 1,41 dollars
Marge brute hors GAAP 74,9 % 37,9 %
Flux de trésorerie opérationnel 11,9 milliards de dollars 3,94 milliards
Flux de trésorerie libre ajusté 6,9 milliards de dollars 857 millions

Cette croissance ne provient pas d’une seule ligne de produits. La division Cloud Memory a généré 7,75 milliards de dollars ; Core Data Center, 5,69 milliards ; Mobile et Client, 7,71 milliards ; et Automotive et Embedded, 2,71 milliards. Tous ces segments connaissent une amélioration globale, mais le centre de données et l’IA sont en train de modifier la narration du secteur.

Pour le troisième trimestre fiscal, Micron prévoit un chiffre d’affaires d’environ 33,5 milliards de dollars, avec une marge brute proche de 81 %, et un bénéfice hors GAAP par action d’environ 19,15 dollars, avec une fourchette de 0,40 dollar. Ces prévisions confirment que la société ne perçoit pas ce trimestre record comme un pic isolé, mais comme une phase durable de demande soutenue.

L’IA valorise la mémoire comme un actif stratégique

Depuis des années, le marché de la mémoire est considéré comme l’un des plus cycliques du secteur technologique. Lorsqu’offre dépasse la demande, les prix chutent fortement ; en période de pénurie, les marges s’envolent. Aujourd’hui, la différence réside dans le fait que l’Intelligence Artificielle modifie la nature même de cette demande.

Micron affirme que la demande de DRAM et NAND pour les centres de données, poussée par l’IA, dépassera pour la première fois 50 % du marché total adressable en bits en 2026. L’entreprise indique aussi que la demande des serveurs traditionnels et des serveurs IA est limitée par une insuffisance d’approvisionnement en DRAM et NAND.

La raison est simple. Entraîner et exécuter des modèles avancés ne nécessite pas uniquement de la puissance de calcul, mais aussi de déplacer d’énormes quantités de données avec une faible latence. La mémoire HBM, ou High Bandwidth Memory, est devenue essentielle pour les GPU et accélérateurs IA, car elle offre une bande passante très élevée dans un format très proche du processeur. Cependant, elle est coûteuse, complexe à fabriquer et consomme beaucoup de capacité industrielle qui pourrait être utilisée pour d’autres produits DRAM.

Ce problème dépasse même HBM. L’inférence quotidienne, c’est-à-dire l’exécution en continu de modèles pour répondre aux utilisateurs, générer du code, analyser des documents ou coordonner des agents, augmente aussi considérablement les besoins en mémoire. Plus les modèles traitent de tokens, plus la pression sur la DRAM, LPDDR, SSD en centres de données et NAND pour des charges comme les bases vectorielles ou le cache KV est importante.

Micron souligne que la croissance rapide de l’inférence stimule de nouvelles architectures optimisées pour la rentabilité par token. Ce changement résume bien la transformation : il ne s’agit plus seulement d’entraîner occasionnellement de grands modèles, mais de les servir en continu, avec des millions de demandes, de longs contextes et des agents enchaînant plusieurs étapes.

HBM4, LPDDR et SSD : la nouvelle mémoire de l’IA

Les feuilles de produits de Micron illustrent la direction prise par l’industrie. La société a commencé à effectuer des envois en volume de son HBM4 de 36 Go et 12 couches, conçu pour la plateforme NVIDIA Vera Rubin. Elle a également testé un produit HBM4 de 16 couches avec 48 Go par cube, soit un gain de 33 % en capacité par rapport au HBM4 de 12 couches.

La prochaine étape sera HBM4E, dont la production de masse est prévue pour 2027. Micron espère que cette série utilisera sa technologie et son processus de fabrication 1γ, apportant une nouvelle amélioration des performances pour les plateformes IA. En pratique, HBM est désormais l’un des composants clés qui déterminent la capacité d’un GPU moderne à entraîner et exécuter de grands modèles.

Mais la société regarde aussi au-delà de HBM. Dans la mémoire LP pour centres de données, Micron a présenté des échantillons de SOCAMM2 de 256 Go, basés sur LPDDR, capable d’atteindre 2 To par CPU. La promesse du LPDDR pour les serveurs réside dans son efficacité énergétique : moins de consommation par bit déplacé, un point crucial alors que l’énergie, la refroidissement et l’espace deviennent des contraintes majeures.

Dans le stockage, la NAND participe également à l’essor de l’IA. Les bases de données vectorielles, l’utilisation de SSD en couches pour de grandes capacités, ou encore le cache KV, amplifient la demande dans les centres de données. Micron assure que ses revenus issus de la NAND pour data centers ont doublé de façon séquentielle durant ce trimestre, la demande dépassant largement son offre disponible pour le futur proche.

Technologie Rôle dans l’IA
HBM Alimente GPU et accélérateurs avec une bande passante très élevée
DRAM DDR Supporte les serveurs traditionnels, CPUs et charges IA complémentaires
LPDDR / SOCAMM Réduit la consommation dans des architectures serveurs plus efficaces
NAND / SSD Soutient les bases vectorielles, le stockage et le cache KV
HBM4E Prochaine génération pour plateformes IA plus exigeantes

La pénurie pourrait durer plus longtemps que prévu

Le message de Micron comporte une nuance importante : augmenter l’offre ne se fait pas rapidement. Construire des usines, étendre des salles blanches, installer des équipements de lithographie, qualifier les processus et atteindre une productivité optimale prennent des années. La société prévoit que la demande de bits en DRAM et NAND en 2026 sera limitée par l’offre, et que cette tension persistera au-delà de cette année.

Micron y répond par une augmentation des investissements. La société prévoit un capex pour 2026 supérieur à 25 milliards de dollars, avec une hausse supplémentaire en 2027 pour soutenir ses projets liés à HBM et DRAM. Parmi ses plans figurent l’expansion de ses capacités à l’échelle mondiale, des projets en Idaho, à New York, l’acquisition du site de Tongluo à Taïwan, des extensions au Japon et une nouvelle usine NAND à Singapour, avec des premières wafers prévues pour la seconde moitié de 2028.

Cela explique pourquoi le marché de la mémoire restera probablement tendu. Même si les fabricants veulent produire davantage, l’offre supplémentaire ne se matérialisera pas du jour au lendemain. De plus, HBM impose un « ratio d’échange » exigeant : il nécessite plus de capacité de fabrication pour produire une quantité donnée de mémoire utile comparé aux produits DRAM classiques. Si les fabricants privilégient HBM pour ses marges et sa demande, d’autres segments pourraient en pâtir.

Cette tension est déjà perceptible dans les PC et mobiles. Micron avertit que, en 2026, plusieurs facteurs, notamment les restrictions sur la DRAM et la NAND, pourraient entraîner une baisse à deux chiffres du volume des PC et smartphones. Parallèlement, l’intégration de l’IA sur appareil pourrait augmenter la demande en mémoire par dispositif. Par exemple, les configurations de 32 Go commencent à gagner du terrain dans les flux locaux de l’IA, modifiant le standard minimal pour de nombreux utilisateurs avancés.

Le cycle de la mémoire entre dans une nouvelle phase

La grande question est de savoir si le boom actuel ne sera qu’un cycle supplémentaire, avec une montée des prix suivie d’un ralentissement, ou si l’IA établira une demande plus structurelle. Micron soutient la seconde hypothèse. Non pas parce que la cyclicité disparaîtrait, mais parce que les centres de données, l’inférence, les agents IA, la robotique, les véhicules électroniquement plus sophistiqués, et l’IA sur site, accroissent simultanément la consommation de mémoire dans beaucoup de domaines.

Ce point fait sens, malgré la nécessité de rester prudent. La mémoire restera un secteur vulnérable à l’investissement excessif, aux fluctuations de prix et aux ajustements d’inventaire. Si les clients freinent leur déploiement, si les modèles deviennent plus efficaces ou si l’offre se déploie trop rapidement dans certains segments, le cycle pourrait tourner. La différence aujourd’hui est que la demande ne dépend plus uniquement des smartphones et PC, mais aussi d’une nouvelle couche d’infrastructure mondiale requérant une mémoire haute performance pour fonctionner.

Pour les fournisseurs cloud et les fabricants de modèles, la conclusion est claire : la disponibilité de mémoire pourra être aussi cruciale que l’accès aux GPUs. Pour les centres de données, cela ajoute une pression supplémentaire sur l’énergie, le refroidissement et la conception des systèmes. Pour les fabricants de PC et mobiles, cela crée une tension entre des prix plus élevés et la nécessité d’équiper les appareils avec plus de RAM pour supporter l’IA en local.

Les résultats de Micron révèlent un moment exceptionnel. Mais l’essentiel ne réside pas seulement dans le trimestre, c’est le message de fond : l’IA commence à transformer la mémoire en un composant stratégique de l’infrastructure technologique. Si l’inférence et les agents croissent comme prévu par l’industrie, la question ne sera plus seulement combien de GPUs une entreprise peut acquérir, mais aussi quelle quantité de mémoire rapide elle peut obtenir, à quel prix et avec quelles garanties de supply.

Questions fréquentes

Pourquoi l’IA a-t-elle besoin de tant de mémoire ?
Parce que les modèles doivent déplacer et stocker d’énormes volumes de données pendant l’entraînement et l’inférence. Plus les modèles sont grands et plus les contextes longs, plus la pression sur la HBM, la DRAM et le stockage rapide est forte.

Qu’est-ce que la HBM et pourquoi est-elle importante ?
La HBM est une mémoire à très haut débit située très près de l’accélérateur. Elle est essentielle pour les GPU IA car elle permet d’alimenter la puce avec des données à grande vitesse.

Quels résultats Micron a-t-elle présentés au T2 2026 ?
Avec un chiffre d’affaires de 23,86 milliards de dollars, un bénéfice net GAAP de 13,79 milliards et un flux de trésorerie opérationnel de 11,9 milliards, Micron a réalisé des performances historiques.

La pénurie de mémoire pourrait-elle affecter les PC et mobiles ?
Oui. Micron avertit que les restrictions sur la DRAM et la NAND pourraient peser sur le marché des PC et smartphones en 2026, même si l’IA locale augmentera aussi la demande en mémoire par appareil.

le dernier