La próxima gran ola de tensión en el sector de la inteligencia artificial no parece centrarse únicamente en las GPU. Cada vez más analistas y fabricantes enfocan su atención en la memoria, hasta el punto de hablar ya de una nueva fase del ciclo: una infraestructura de IA donde la DRAM, LPDDR5 y HBM representan una proporción cada vez mayor en el coste total de los sistemas y en el capex de los grandes operadores de la nube. La hipótesis más atrevida la plantea SemiAnalysis, que estima que la memoria pasará de representar cerca del 8 % del gasto total de los hiperescalares en 2023 y 2024 a aproximadamente el 30 % en 2026, con una presión aún mayor en 2027. Se trata de una estimación de la firma, no de una previsión oficial de los hiperescalares, pero refleja claramente la magnitud del cambio que atraviesa el mercado.
Este cambio no se apoya en una sola variable. Por un lado, el capex en centros de datos continúa acelerándose impulsado por la IA. BloombergNEF estima que la inversión de los grandes operadores alcanzará cerca de 750.000 millones de dólares en 2026, mientras que Dell’Oro proyecta que el capex global del sector podría llegar a 1,7 billones de dólares en 2030. Por otro, una parte cada vez mayor de ese gasto ya no se destina únicamente a componentes lógicos de silicio, sino también a la memoria que requieren aceleradores, servidores y racks completos para soportar cargas cada vez más exigentes de entrenamiento e inferencia.
La señal más clara de esta presión proviene del propio mercado de memoria. TrendForce prevé que los precios de contrato de la DRAM convencional suban entre un 58 % y un 63 % trimestralmente en el segundo trimestre de 2026, tras un primer trimestre ya muy tensionado, y atribuye esta escalada a la reasignación de capacidad hacia aplicaciones relacionadas con IA y servidores, además de una oferta que continúa siendo ajustada. La firma también anticipa que la escasez persistirá durante todo 2026 y probablemente más allá, ya que la nueva capacidad productiva no llegará en volumen suficiente hasta finales de 2027 o 2028.
HBM, el cuello de botella más evidente
Si existe un segmento donde esta inflación de la memoria se manifiesta con mayor claridad, es en HBM. Micron confirmó en sus resultados del primer trimestre fiscal de 2026 que ya tenía cerrados los precios y volúmenes para toda su oferta de HBM de calendario 2026, incluida la HBM4. La propia compañía explicó que su incremento de capex, que alcanzará aproximadamente 20.000 millones de dólares, se destinará en gran medida a reforzar la capacidad de producción de HBM y de nodos avanzados de DRAM, aunque reconoce que no puede satisfacer toda la demanda de sus clientes.
SK hynix sigue la misma dirección. En su perspectiva oficial para 2026, la compañía describe el momento actual como un « superciclo de memoria para IA » impulsado por HBM3E y, en la siguiente fase, por HBM4. Aunque no ofrece cifras concretas equivalentes a las de SemiAnalysis respecto a la proporción exacta en capex, refuerza la idea de que la memoria ya no es simplemente un componente más en la lista de materiales (BOM), sino uno de los centros neurálgicos del negocio.
Esto tiene una consecuencia directa sobre el coste de los servidores de IA. A medida que la proporción de HBM aumenta dentro del sistema, también lo hace la sensibilidad frente a cualquier incremento de precio o restricción en la oferta. SemiAnalysis señala que esta presión ya comienza a reflejarse en las previsiones de capex para 2026 y que la reevaluación de precios prevista para 2027 aún no se refleja completamente en las estimaciones del mercado. De nuevo, se trata de una interpretación de dicha firma, no de un consenso oficial de la industria, pero tiene apoyo indirecto en el hecho de que fabricantes como Micron hayan vendido por adelantado gran parte de su capacidad de producción de HBM.
DRAM y LPDDR5: menos llamativas, pero igual de críticas
La narrativa pública ha puesto mayor énfasis en HBM, pues es la memoria más estrechamente vinculada a aceleradores de IA de alto rendimiento. No obstante, la presión también afecta a la DRAM generalista y a variantes como LPDDR5. TrendForce indica que los fabricantes siguen priorizando productos de mayor margen ligados a servidores y empresas, lo que aprieta aún más el mercado tradicional. Esto ayuda a entender por qué algunos analistas ya hablan de una memoria que « consume » una parte creciente del presupuesto cloud, tanto en los sistemas más avanzados como en la infraestructura general que acompaña a la expansión de la IA.
La estimación de SemiAnalysis sobre LPDDR5 — con precios de contrato más que triplicados desde el primer trimestre de 2025 y referencias en mercado abierto por encima de 10 dólares por GB en 2026 — debe interpretarse como una proyección de dicha firma, no como una cifra oficial confirmada por los fabricantes. Aun así, encaja con una tendencia más amplia: la memoria de mayor rendimiento y menor consumo está ganando peso en arquitecturas donde la eficiencia y la densidad son cada vez más importantes.
Nvidia mitiga parte del impacto; el resto del mercado, no tanto
Uno de los aspectos más interesantes del análisis de SemiAnalysis es que no todos los compradores están igualmente afectados. La firma sostiene que NVIDIA disfruta de condiciones preferentes en el suministro de DRAM, que le permiten absorber mejor la inflación de la memoria en el coste total de sus servidores, mientras que otros actores estarían más expuestos. Esta afirmación, que no está basada en contratos públicos ni declaraciones oficiales de NVIDIA o sus proveedores, debe tomarse como una interpretación de mercado plausible. Sin embargo, apunta a una realidad probable: en un entorno de oferta limitada, el poder de compra y la prioridad en el suministro son tan importantes como la demanda técnica.
Esto también podría explicar por qué la presión se percibe de manera distinta según el actor. Un proveedor con gran escala, contratos plurianuales y prioridad en el suministro puede soportar mejor un ciclo inflacionista que una empresa con menor volumen o con menor capacidad para cerrar acuerdos preferentes. En ese sentido, la inflación de la memoria no solo encarece los servidores, sino que también puede redistribuir ventajas competitivas dentro del mercado de aceleradores y sistemas de IA. Esta conclusión se basa en interpretaciones del comportamiento del mercado y en el cierre anticipado de capacidad de producción de HBM, aunque no aparezca formalmente en una única fuente oficial.
El auténtico mensaje del ciclo
La conclusión fundamental es clara: la memoria está dejando de ser un componente secundario en la lista de materiales para convertirse en una de las palancas centrales en el control de costes y en la planificación de infraestructura. La IA no solo requiere más capacidad de procesamiento (compute), sino también mayor ancho de banda, más capacidad y una proximidad cada vez mayor entre procesador y memoria. Cuando esa demanda se encuentra con una oferta rígida, nodos avanzados difíciles de escalar y HBM vendida por adelantado, el resultado es un mercado que tensiona simultáneamente el capex, los márgenes y las estrategias de adquisición.
Si esta tendencia continúa, 2026 y 2027 podrían ser recordados no solo como los años de la expansión masiva de centros de datos para IA, sino también como los años en que la memoria dejó de ser un mero acompañamiento del silicio para convertirte en una de las reglas del juego que rigen el mercado.
Memory is taking over Hyperscaler CapEx.
In CY23 and CY24, memory was ~8% of total Hyperscaler spend. We estimate it hits 30% in CY26 and moves higher in CY27. That’s a near-4x shift in just four years. (1/4) 🧵 pic.twitter.com/fUxpwUYfcO
— SemiAnalysis (@SemiAnalysis_) 3 de abril de 2026
Preguntas frecuentes
¿Por qué se habla tanto de HBM en la infraestructura de IA?
Porque HBM ofrece un ancho de banda mucho mayor que la DRAM convencional y es fundamental para alimentar aceleradores de IA de alto rendimiento. Micron ya ha confirmado que tenía comprometida toda su producción de HBM para el calendario 2026, lo que evidencia cuán tensa está la demanda.
¿La DRAM realmente va a subir tanto en 2026?
TrendForce proyecta que en el segundo trimestre de 2026 los precios de contrato de la DRAM convencional aumentarán entre un 58 % y un 63 %, tras un primer trimestre ya muy alcista. No significa que el precio anual se duplique en todos los segmentos, pero confirma una fuerte presión en el mercado.
¿Es oficial que la memoria representará el 30 % del capex de los hiperescalares?
No. Es una estimación de SemiAnalysis, que ha difundido públicamente como parte de su análisis del ciclo de memoria e IA.
¿La escasez de memoria afecta solo a HBM?
No. Aunque HBM es la más visible, TrendForce también identifica una alta tensión en la oferta de DRAM convencional y NAND, debido a la reasignación de capacidad hacia aplicaciones con mayor margen relacionadas con IA y servidores.