Jensen Huang insiste desde hace meses en que la próxima gran ola de la inteligencia artificial no vendrá únicamente de modelos que responden a preguntas, sino de sistemas capaces de actuar por sí mismos, utilizando herramientas, leyendo documentación, escribiendo código y realizando tareas completas de forma autónoma. Esta semana, fue un paso más allá al realizar una comparación llamativa, aunque discutible: según el CEO de NVIDIA, OpenClaw ha alcanzado en solo tres semanas un nivel de adopción que a Linux le llevó aproximadamente 30 años.
Esta afirmación, pronunciada durante la Morgan Stanley Technology, Media & Telecom Conference 2026, tiene el propósito de captar la atención. Y lo logra, no tanto porque Linux requiera presentación, sino porque equiparar la velocidad de adopción de un proyecto de agentes de IA con la evolución histórica del software libre más influyente del mundo resulta, cuanto menos, provocador. Sin embargo, más allá del impacto mediático, lo relevante no es si Huang exagera o no, sino entender por qué ha usado esa comparación y qué mensaje busca transmitir al mercado.
OpenClaw existe, es real y no es un mero recurso retórico de NVIDIA. Su propia página oficial menciona que el proyecto, rebautizado como OpenClaw a finales de enero, superó los 100.000 estrellas en GitHub y atrajo a 2 millones de visitantes en una sola semana. Reuters también informó hace unas semanas que su fundador, Peter Steinberger, se incorporaba a OpenAI para potenciar la próxima generación de agentes personales, mientras que el proyecto continuaría activo como una iniciativa de código abierto respaldada por una fundación. Es decir, sí hay un fenómeno tangible detrás del nombre, aunque equipararlo sin matices con Linux resulta, por decirlo suavemente, una simplificación excesiva.
La comparación con Linux dice más sobre la velocidad de Internet que sobre Linux
Es importante distinguir los distintos niveles de análisis. Huang no está afirmando que OpenClaw sea más relevante que Linux en términos históricos, técnicos o industriales. Lo que plantea es que el ciclo de adopción del software ha cambiado radicalmente. Y aquí sí hay un punto fundamental: Linux nació en un mundo sin GitHub, sin distribución viral en redes sociales, sin comunidades globales en tiempo real y, por supuesto, sin la tracción masiva que genera actualmente cualquier herramienta conectada a la fiebre de la IA.
Por ello, la comparación debe interpretarse más como una metáfora del ritmo actual de expansión del software que como una equivalencia técnica. Linux se consolidó con los años como la base de servidores, cloud, Android, supercomputación y gran parte de Internet. OpenClaw, en cambio, opera en un terreno diferente: el de los agentes autónomos de inteligencia artificial que prometen realizar tareas por el usuario, no solo responderle. Son épocas distintas, ámbitos distintos y métricas de adopción muy difíciles de comparar con una misma vara.
Eso sí, Huang no eligió OpenClaw por casualidad. En la transcripción del evento, el directivo lo presenta como uno de los fenómenos más destacados del momento y lo usa para ilustrar que el software está entrando en una nueva fase. El antiguo esquema de preguntas como “qué”, “quién” o “cuándo” empieza a ceder paso a órdenes como “crear”, “hacer”, “construir” o “escribir”. Es decir, pasamos de consultar a actuar. Y cuando esto sucede, la demanda de infraestructura se modifica por completo.
El verdadero mensaje de NVIDIA no se centra en OpenClaw, sino en la computación
Ahí radica el núcleo de la intervención. Huang no se detiene tanto en el valor simbólico de OpenClaw como en las implicaciones que conlleva el software agentico para la infraestructura. En esa misma charla, explicó que el salto desde la IA generativa básica hacia modelos con mayor capacidad de razonamiento ya elevó significativamente el consumo de tokens. Pero, según su propio argumento, el avance hacia agentes que investigan, leen manuales, emplean herramientas y trabajan en segundo plano multiplicará aún más esa demanda.
Probablemente, la afirmación más importante de su intervención no hace referencia a Linux, sino a lo que viene después. Huang sostiene que estos agentes consumen órdenes de magnitud más tokens y que operan de manera continua, no en consultas puntuales. Es decir, ya no se trata solo de hacer una pregunta y recibir una respuesta, sino de tener software trabajando de forma constante para usuarios o empresas. Esto obliga a replantearse qué es realmente un centro de datos.
NVIDIA lleva tiempo promoviendo la idea de la “fábrica de IA”, una especie de “fábrica de tokens”. Aunque pueda sonar a estrategia de marketing, encierra una tesis concreta: los centros de datos del futuro no solo almacenarán datos ni atenderán cargas tradicionales de cloud, sino que producirán tokens de forma rentable y sostenida. Y si la industria termina saturándose de agentes que operan de forma permanente en segundo plano, la demanda de potencia, memoria, red, refrigeración y energía se incrementará aún más que en la actualidad.
No es casual que Huang vincule este discurso con la necesidad de mayor capacidad computacional. Tampoco lo es que insista en que cada compañía terminará consumiendo muchísimos más tokens que hoy. Desde la perspectiva de NVIDIA, los agentes son la pieza clave para el próximo gran salto en inversión en infraestructura. Si cada software se vuelve “agentico”, como defendió en el evento, la demanda de aceleradores, sistemas de inferencia y centros de datos preparados para cargas continuas no solo no disminuirá, sino que podría acelerarse aún más.
La industria enfrenta un problema si el avance del software supera la capacidad de la infraestructura
Ahí radica una de las cuestiones más incómodas que plantea Huang. ¿Está preparada la infraestructura para sostener una oleada masiva de agentes de IA funcionando de manera continua? Hoy en día, resulta difícil pensar que sí. El sector ya arrastra tensiones en energía, memoria, almacenamiento, obras civiles, plazos de despliegue y capacidad eléctrica. Sumando una capa de software que requiere operar durante más tiempo en cada tarea, la presión podría intensificarse rápidamente.
De hecho, el auge de OpenClaw ayuda a ilustrar esta dinámica. No por lo que representa hoy, sino por su potencial: es un tipo de software que se instala, se adapta, emplea herramientas y hace que la IA sea más operativa. La popularidad de estos sistemas también ha traído problemas de seguridad, vulnerabilidades y versiones maliciosas, lo que indica que el ecosistema se mueve tan deprisa como suele suceder cuando algo se vuelve viral en serio.
En ese sentido, la frase de Huang puede parecer exagerada, pero no es una simple ocurrencia. Funciona como una advertencia con forma de lema. NVIDIA busca transmitir a inversores, clientes y desarrolladores que los agentes inteligentes no serán solo una mejora incremental respecto a los chatbots actuales, sino que, si realmente se implantan, cambiarán la forma en que la gente usa el software y también la infraestructura necesaria para sostener esa evolución.
La verdadera duda ya no es si OpenClaw puede compararse o no con Linux. La cuestión fundamental es si la infraestructura energética, los centros de datos y la cadena de suministro de hardware podrán seguir el ritmo de una nueva generación de software que ya no solo espera respuestas, sino que empieza a actuar sola. En ese escenario, la exageración de Huang quizás no busque describir con precisión el presente, sino preparar al mercado para el tamaño del coste que podría venir después.
Preguntas frecuentes
¿Qué es OpenClaw y por qué Jensen Huang lo compara con Linux?
OpenClaw es un proyecto de código abierto orientado a agentes de inteligencia artificial capaces de realizar tareas, emplear herramientas y operar en diversos canales y dispositivos. Huang lo comparó con Linux para destacar la velocidad de adopción que puede alcanzar actualmente un proyecto de IA, sin implicar que su impacto técnico o histórico sea equivalente.
¿Realmente dijo NVIDIA que OpenClaw superó a Linux en tres semanas?
Sí, Jensen Huang afirmó esto durante la Morgan Stanley Technology, Media & Telecom Conference 2026. Sin embargo, esa comparación debe entenderse como una declaración llamativa acerca del ritmo de adopción, no como una medición definitiva o técnica del impacto de ambos proyectos.
¿Por qué los agentes de IA consumen más recursos que un chatbot tradicional?
Porque no solo responden a una consulta puntual. Investigan, razonan, leen documentación, utilizan herramientas, ejecutan pasos encadenados y trabajan en segundo plano durante períodos prolongados. Todo ello incrementa el conteo de tokens procesados y, en consecuencia, la demanda de recursos en los centros de datos.
¿Qué impacto tendrá la IA agentica en los centros de datos y en NVIDIA?
Si este tipo de software se generaliza, la necesidad de potencia de cálculo, memoria, energía y almacenamiento podría crecer de forma acelerada. Para NVIDIA, esto reafirma su tesis de que la próxima gran expansión del mercado no solo dependerá de entrenar modelos, sino de ejecutar millones de tareas agenticas de manera continua.