NVIDIA ha presentado en el GTC 2026 su innovador Vera Rubin DSX AI Factory reference design y ha anunciado la disponibilidad general de Omniverse DSX Blueprint. Esta combinación busca ofrecer a operadores en la nube, megaescalares, proveedores de colocation e integradores una solución integral para diseñar, construir y gestionar grandes centros de datos de IA, adoptando una lógica más industrializada. La propuesta va más allá del ámbito del cómputo, abarcando red, almacenamiento, energía, sistemas de refrigeración, control y simulación previa mediante gemelos digitales con alta precisión física.
El elemento central es el reference design Vera Rubin DSX, que NVIDIA describe como una guía para desplegar infraestructura de IA “co-diseñada” y optimizada para maximizar los tokens por vatio, acelerando así el proceso desde la planificación hasta la puesta en marcha en producción. Según la compañía, este diseño de referencia cubre toda la pila tecnológica de una fábrica de IA, desde el hardware y la red Spectrum-X Ethernet hasta el almacenamiento, incluyendo buenas prácticas en sistemas de potencia, refrigeración y control, facilitando que sus socios puedan repetir despliegues a gran escala con menor fricción y riesgo de integración.
De manera simultánea, NVIDIA plantea a Omniverse DSX Blueprint como la capa de simulación y validación previa. Disponible ahora de forma general en build.nvidia.com, permite crear gemelos digitales de estas instalaciones para probar diseños, políticas operativas y cambios en hardware o carga antes de implementarlos en el entorno real. Este entorno permite comparar configuraciones de GPU, visualizar indicadores como consumo energético, eficiencia operativa y coste total de propiedad, además de realizar simulaciones térmicas y eléctricas dentro de un mismo flujo de trabajo.
Este blueprint no es solo una demo conceptual. La documentación pública de NVIDIA detalla que el repositorio incluye la geometría digital de un emplazamiento de 50 acres, una interfaz front-end para interactuar con los gemelos digitales, activos SimReady para acelerar la creación del entorno y simulaciones tanto de carga eléctrica como térmica en pasillos calientes. También permite simular escenarios de fallos eléctricos y variaciones térmicas relacionadas con la distribución de cargas, aspectos especialmente críticos en centros de datos donde cada megavatio y cada grado de temperatura cuenta.
En cuanto al software, NVIDIA estructura DSX en cuatro bloques principales. DSX Max-Q busca maximizar el rendimiento y los tokens por vatio dentro de un presupuesto eléctrico definido; DSX Flex conecta las fábricas de IA con servicios de red eléctrica para ajustar el consumo y coordinar generación local; DSX Exchange integra señales de TI y OT (tecnologías operativas) entre computación, red, energía y refrigeración; y DSX Sim valida la instalación como un gemelo digital de alta fidelidad mediante la plataforma DSX Air y activos SimReady. En su página, NVIDIA afirma que el enfoque Max-Q podría aportar hasta un 30 % más de rendimiento GPU en escala de centro de datos, si bien esta cifra debe considerarse una estimación comercial.
El alcance de esta iniciativa también se refleja en el ecosistema que la respalda. NVIDIA menciona a Cadence, Dassault Systèmes, Eaton, Jacobs, Nscale, Phaidra, Procore, PTC, Schneider Electric, Siemens, Switch, Trane Technologies y Vertiv como contribuyentes en el desarrollo del diseño de referencia y del blueprint, ya sea integrando plataformas, proporcionando activos SimReady o conectando software para diseño, construcción y operación. En definitiva, NVIDIA busca convertir su visión de la fábrica de IA en un lenguaje común que abarque infraestructura física, software industrial y gestión del centro de datos.
Algunos socios ya han avanzado en cómo encajan en este esquema. Schneider Electric ha anunciado que su validación incluye nuevos modelos de potencia y refrigeración compatibles con arquitecturas rack-scale de NVIDIA, con soporte para 480 VAC, temperaturas de suministro más altas en lazo de refrigeración y diseños de salas que mejor separan racks de GPU, red, almacenamiento y CPU. Además, Schneider y AVEVA planean integrar sus capacidades de gemelos digitales y simulación multidominio—incluyendo distribución eléctrica, dinámica térmica, flujo de aire y controles—a través del ecosistema Omniverse DSX.
Por su parte, Vertiv ha anunciado que aportará activos digitales de potencia y refrigeración listos para simulación, así como componentes de infraestructura repetibles y validados, con el objetivo de acelerar despliegues y reducir riesgos. La compañía enmarca esta colaboración como una evolución de su enfoque de infraestructura convergente, donde potencia, refrigeración, control y servicios se diseñan como un sistema interdependiente, en lugar de piezas aisladas.
Un elemento clave de esta estrategia es la energía. En su anuncio, NVIDIA señala que el principal cuello de botella para nuevos despliegues de IA ya no reside solo en los chips o en la obra civil, sino en el acceso a potencia. Se estiman más de 300.000 millones de dólares en retrasos en equipamiento y más de 200 GW de proyectos en espera de interconexión en EE.UU. Para abordar este desafío, NVIDIA trabaja con Emerald AI, GE Vernova, Hitachi y Siemens Energy en acelerar la integración en red y fortalecer la estabilidad del sistema eléctrico mediante control dinámico de demanda, modelado conjunto de red y cómputo, además de plataformas de gemelos digitales para monitoreo y prevención de fallos.
En conjunto, el anuncio transmite un mensaje claro: NVIDIA ya no se limita a vender GPU, redes o DPUs por separado. Busca codificar cómo debe construirse una fábrica de IA completa, desde la distribución física del recinto hasta políticas de refrigeración, simulaciones térmicas, interrelación con la red eléctrica y la orquestación de TI y OT. Esta visión encaja tanto con la descripción de Vera Rubin DSX como con la evolución previa de Omniverse DSX, presentado en octubre de 2025 como un blueprint abierto para diseñar y operar fábricas de IA a escala gigavatio, validado en el AI Factory Research Center de Virginia.
Para el sector de centros de datos, esto puede tener una implicación significativa: el valor diferencial ya no dependerá solo de adquirir más GPU antes del competidor, sino de llevarlas a producción más rápidamente, reduciendo sobrecostes, sobredimensionamiento y errores de integración entre energía, refrigeración, red y cómputo. NVIDIA resume este objetivo con expresiones como time to first production o time to revenue. En términos concretos, la compañía busca que el centro de datos de IA pase a ser cada vez menos una obra artesanal y más un producto industrial, facilmente simulable, repetible y optimizable antes de instalar el primer rack.