Le «supercycle» de la mémoire en 2026 : pourquoi DRAM, HBM et NAND reviennent au cœur des centres de données

Le «supercycle» de la mémoire en 2026 : pourquoi DRAM, HBM et NAND reviennent au cœur des centres de données

Certain infographies, sin necesidad de entrar en tecnicismos, presentan una idea poderosa: si el mundo está construyendo centros de datos como si fueran fábricas, hay un conjunto reducido de componentes sin los cuales esa maquinaria no puede funcionar. Y en 2026, esos componentes clave son memoria y almacenamiento.

La imagen que circula actualmente sobre el “Mercado de memoria 2026” resume esta tendencia con una lista clara de categorías y empresas. No pretende ser una recomendación bursátil, sino un mapa mental: qué actores sería prudente seguir si la tendencia alcista en memoria se prolonga. La tesis principal es simple: el auge de la IA y la expansión del cloud no dependen exclusivamente de las GPUs. También requieren HBM, DRAM, NAND, discos, controladoras, sistemas empresariales… y, además, las máquinas necesarias para fabricarlas y ensamblarlas.

Le «supercycle» de la mémoire en 2026 : pourquoi DRAM, HBM et NAND reviennent au cœur des centres de données 1

Razón principal: la IA no solo consume GPUs, exige ancho de banda

La IA generativa y los modelos de razonamiento han centrado en los medios la atención en las tarjetas gráficas y aceleradores. Sin embargo, la realidad industrial es menos glamurosa: un clúster de IA puede verse frenado por un cuello de botella en la memoria.

Aquí entra en juego la HBM (High Bandwidth Memory), una memoria ultrarrápida que acompaña a muchas GPUs de entrenamiento. Cuanto más complejo es el modelo, mayor es la demanda de ancho de banda, paralelismo y flujo constante de datos. La infografía pone en primer plano a empresas como SK Hynix, y Micron Technology (MU), por su papel en DRAM y HBM.

Si la construcción de data centers para IA continúa a buen ritmo, es lógico pensar que la memoria de alta velocidad tendrá un impulso favorable: sin HBM, el rendimiento real de una granja de GPUs no alcanzaría las promesas de los folletos.

DRAM: la memoria “invisible” que sustenta la nube

Más allá de la HBM, la DRAM sigue siendo el músculo silencioso de los servidores genéricos. Cada nodo de computación —para bases de datos, virtualización, análisis o inferencia— requiere grandes cantidades de RAM para funcionar eficazmente. Cuando estos nodos se multiplican por miles o decenas de miles, la DRAM deja de ser un componente menor y se convierte en una pieza estratégica.

Este punto es crucial porque el mercado de memoria suele moverse en ciclos: cuando la demanda se dispara y la oferta tarda en ajustarse (por capacidad productiva, rendimientos, inventarios o transiciones tecnológicas), los precios tienden a tensionarse. Este fenómeno se denomina “superciclo”: no como una magia, sino como una tormenta perfecta de demanda sostenida y capacidad limitada.

NAND y SSD: almacenamiento que ya no es solo “disco”, sino velocidad operativa

Otra pieza esencial del mapa la conforma la NAND, tecnología detrás de los SSD. La infografía menciona a SanDisk (SNDK) como un referente en este sector. La idea es clara: los centros de datos modernos dependen de mover datos con rapidez. Por eso, el almacenamiento en estado sólido no es un lujo, sino una condición para mantener latencias bajas y servicios estables.

La IA intensifica esta necesidad. Entrenar y reentrenar modelos, gestionar datasets, registrar logs, almacenar embeddings y manejar “lagos” de datos operativos exigen sistemas de almacenamiento cada vez más rápidos y, en ocasiones, más costosos. En este contexto, un SSD no es solo capacidad, sino productividad del clúster.

HDD: el antiguo disco duro que sigue siendo el rey en coste por terabyte

Por otro lado, el mundo no se ha convertido completamente a SSD. Para datos “fríos”, copias de seguridad masivas, archivado, cumplimiento normativo y archivos históricos, los HDD siguen siendo insuperables en coste por capacidad. La infografía destaca a empresas como Seagate Technology (STX) y Western Digital (WDC) en este segmento.

En un superciclo de data centers, el HDD suele reaparecer con fuerza por una razón sencilla: aunque la computación sea “nueva”, los datos crecen más rápido que la capacidad de gestionarlos. Cuando el objetivo es almacenar grandes volúmenes sin necesidad de acceso ultrarrápido, el disco tradicional continúa siendo relevante.

Sistemas empresariales: NetApp y Pure Storage, el “producto final” que adquieren las compañías

Existe una diferencia significativa entre fabricar chips de memoria y resolver problemas reales en las empresas. Ahí entran los sistemas de almacenamiento enterprise, en los que la infografía menciona a NetApp (NTAP) y Pure Storage (PSTG).

Este segmento se potencia cuando el gasto pasa de “experimentar con IA” a “operar IA en producción”. Aquí importan conceptos menos llamativos que los parámetros del modelo: disponibilidad, snapshots, replicación, rendimiento estable, recuperación ante desastres y costes operativos. Esto suele favorecer plataformas integradas frente a componentes aislados.

Equipamiento: en un posible superciclo, quienes proveen “picos y palas” también ganan

El mapa incluye un apartado para el “Equipo”, con Lam Research (LRCX) y Applied Materials (AMAT). La idea clásica en tecnología es que si el sector decide ampliar la capacidad de producción o acelerar las transiciones, quienes suministran maquinaria y procesos industriales suelen estar en primera línea.

En memoria, esto resulta especialmente relevante por la complejidad de los procesos: fabricación, deposición, grabado, empaquetado… y una presión constante para mejorar rendimiento, densidad y eficiencia energética. Cuando la demanda impulsa mayores inversiones, el equipamiento se convierte en un indicador adelantado de la evolución del mercado.

Controladoras e IP: el “cerebro” que asegura el buen funcionamiento del almacenamiento y la memoria

Por último, la infografía agrupa a Rambus (RMBS), Marvell Technology (MRVL) y Silicon Motion (SIMO) en la categoría “Controladoras”. Es un aspecto que suele pasar desapercibido para el público general, pero es fundamental: sin controladoras, protocolos, propiedad intelectual (IP) y conectividad, la memoria y el almacenamiento no alcanzan su máximo potencial.

En la práctica, la controladora define cómo se gestiona el rendimiento, el acceso paralelo, la corrección de errores, el comportamiento bajo carga y, en el caso de los SSD, la fiabilidad. En los data centers, estos detalles se traducen en coste por operación y estabilidad del servicio.

En resumen: un data center moderno, en esencia, es una fábrica de memoria

El mensaje final de la infografía es sencillo: el auge de los centros de datos no solo impulsa a quienes fabrican GPUs. En realidad, impulsa toda la cadena que convierte electricidad en computación útil: memoria rápida para IA, RAM para servidores, SSD para operación, HDD para almacenamiento, plataformas empresariales para gestionar todo, maquinaria para fabricarlo y controladoras para asegurar su funcionamiento.

Si el “superciclo” continúa o no, dependerá de factores macroeconómicos (capex, energía, tasas de interés, demanda empresarial real, eficiencia de los modelos), pero, como fotografía del momento, este esquema ayuda a ordenar el ruido: la IA no es solo software. En 2026, más que nunca, también es memoria.

Vía: X Speculator IO

le dernier