Red Hat souhaite industrialiser l’IA d’entreprise : une plateforme unifiée « du métal aux agents »

Arctera InfoScale s'associe à Red Hat pour accélérer la transformation numérique des entreprises

La Intelligence Artificielle en las empresas está experimentando una profunda transformación. El mercado avanza rápidamente, pasando de los chatbots “de prueba” a flujos de trabajo más complejos, en los que agentes encadenan tareas y requieren acceso constante a datos, modelos y herramientas. Sin embargo, muchas organizaciones aún permanecen en la fase de piloto, con demasiadas piezas aisladas, infraestructuras inconsistentes y un ciclo de vida del modelo gestionado como un proyecto independiente. En este contexto, Red Hat ha anunciado Red Hat AI Enterprise, una plataforma unificada para desplegar y administrar modelos, agentes y aplicaciones de IA en nube híbrida, junto con Red Hat AI 3.3, una actualización que fortalece su catálogo, su observabilidad y su soporte hardware.

El mensaje de la compañía es claro: si la IA desea dejar de ser un experimento, debe funcionar como el software empresarial tradicional, con gobernanza, repetibilidad y control. Joe Fernandes, vicepresidente y responsable de la unidad de IA en Red Hat, lo plantea como una obligación de diseño: para generar valor real, la IA debe “operacionalizarse” como un componente central del conjunto, y no como un silo independiente. De aquí surge el lema “metal-to-agent” (del metal a los agentes): unificar desde la base (Linux y Kubernetes) hasta la inferencia y la capa de agentes.

Unificación del ciclo de vida: de “pruebas de modelos” a gestión integral en la empresa

Red Hat AI Enterprise se presenta como una plataforma para unificar el ciclo de vida de modelos y aplicaciones de IA, facilitando a los equipos de TI manejar la IA como un sistema estandarizado, en lugar de una cadena dispersa de herramientas desconectadas. La propuesta se apoya en las piezas ya conocidas del ecosistema Red Hat: Red Hat Enterprise Linux y Red Hat OpenShift, siendo OpenShift la columna vertebral para garantizar una experiencia coherente en entornos híbridos.

La plataforma se integra dentro del portafolio de Red Hat AI, que incluye Red Hat AI Inference Server, Red Hat OpenShift AI y Red Hat Enterprise Linux AI. Sobre esta base, Red Hat AI Enterprise añade funciones clave para producción: inferencia de alto rendimiento, ajuste y personalización de modelos, y despliegue y gestión de agentes, con la promesa de soportar “cualquier modelo y cualquier hardware” en “cualquier entorno”.

Inferencia optimizada: vLLM y llm-d para escalar sin aumentar costos

La inferencia se ha convertido en el campo de batalla de la IA empresarial: donde se concentran los costes recurrentes y donde se mide la experiencia del usuario. Red Hat resalta que su plataforma busca acelerar y escalar la inferencia, apoyándose en el motor vLLM y en el framework de inferencia distribuida llm-d. Estas tecnologías están orientadas a optimizar los despliegues de modelos generativos en infraestructuras híbridas, reduciendo costos y mejorando el rendimiento.

Asimismo, Red Hat enfatiza dos elementos que suelen ser fuente de fricción cuando se pasa del piloto a la operación: observabilidad integrada y gestión del ciclo de vida. La idea es minimizar riesgos y facilitar la gobernanza de la IA con un stack probado, interoperable, con reforzada seguridad y herramientas familiares para los equipos que ya operan OpenShift y Linux en producción.

Red Hat AI Factory con NVIDIA: “co-engineering” para despliegues a gran escala

Como complemento, Red Hat ha presentado Red Hat AI Factory con NVIDIA, una oferta co-diseñada que combina Red Hat AI Enterprise con NVIDIA AI Enterprise para entornos que requieren despliegues masivos de IA. Este enfoque conjunto busca acelerar el paso a producción y ofrecer soporte temprano (“Day 0”) para arquitecturas de hardware de NVIDIA. La plataforma se anuncia compatible con infraestructuras de fabricantes como Cisco, Dell Technologies, Lenovo y Supermicro, acortando la distancia entre el laboratorio y el centro de datos.

Red Hat AI 3.3: más modelos, mayor control y soporte hardware avanzado

La segunda parte del anuncio es Red Hat AI 3.3, que tiene un objetivo práctico: ampliar las opciones de modelos, mejorar la consistencia operativa y optimizar el stack para nuevos tipos de silicio.

Entre las novedades más destacadas:

  • Ampliaecosistema de modelos: versiones comprimidas y validadas para producción de Mistral-Large-3, Nemotron-Nano y Apertus-8B-Instruct en el catálogo de OpenShift AI. También se habilita el despliegue de modelos como Ministral 3 y DeepSeek-V3.2 con sparse attention, junto con mejoras multimodales como una aceleración de en Whisper, soporte geoespacial, mejoras en decodificación especulativa EAGLE y un tool calling más robusto para flujos de agentes.
  • Models-as-a-Service (MaaS): en vista previa tecnológica, ofrece acceso self-service a modelos alojados de forma privada mediante un API gateway, facilitando que la IA esté “bajo demanda” para usuarios internos sin convertir cada despliegue en un proyecto independiente.
  • Soporte de hardware ampliado: vista previa para IA generativa en CPUs, comenzando con Intel para inferencia eficiente de SLM (modelos de lenguaje pequeños). Además, se amplía la certificación para NVIDIA Blackwell Ultra y se añade soporte a aceleradores AMD MI325X.
  • Red Hat AI Python Index: un repositorio “de confianza” con versiones robustas y de nivel empresarial de herramientas clave, incluyendo Docling, SDG Hub y Training Hub. Diseñado para pasar de la experimentación fragmentada a pipelines repetibles y seguros.
  • Observabilidad y seguridad: telemetría en tiempo real sobre salud, rendimiento y comportamiento del modelo, con una vista previa de NeMo Guardrails integrado para reforzar la seguridad operacional y el alineamiento en interacciones.
  • GPU-as-a-Service interno: orquestación para acceso bajo demanda a GPU con recursos agrupados y checkpointing automático para guardar el estado de trabajos largos. Esto evita pérdidas de progreso y aporta previsibilidad en los costes, incluso en entornos dinámicos o preemptibles.

El fin común de estas iniciativas es claro para cualquier CIO o responsable de plataforma: que desplegar IA deje de ser “arte” y pase a ser una ingeniería repetible. Red Hat busca posicionar su oferta como un puente entre la estabilidad necesaria en entornos críticos y la agilidad que requiere la innovación en IA.


Preguntas frecuentes (FAQ)

¿Qué es Red Hat AI Enterprise y qué papel juega en una estrategia de nube híbrida?
Es una plataforma integrada que permite desplegar y gestionar modelos, agentes y aplicaciones de IA en entornos híbridos, unificando todo el ciclo de vida de la IA sobre Red Hat Enterprise Linux y Red Hat OpenShift.

¿Por qué vLLM y llm-d son fundamentales en la inferencia de modelos generativos en producción?
Porque Red Hat los usa como base para acelerar y escalar la inferencia, incluyendo despliegues distribuidos, con el objetivo de optimizar costos y rendimiento en infraestructuras híbridas.

¿Qué implica Models-as-a-Service (MaaS) en Red Hat AI 3.3?
Se trata de una vista previa tecnológica que permite el acceso self-service a modelos alojados de forma privada mediante un API gateway, centralizando y haciendo más accesible el consumo interno de IA.

¿Cómo contribuye GPU-as-a-Service con checkpointing automático a proyectos empresariales de IA?
Permite compartir y orquestar recursos de GPU como un servicio interno, guardando automáticamente el estado de tareas largas, reduciendo riesgos de pérdida de trabajo y mejorando la previsibilidad de costes en entornos dinámicos o preemptibles.

via: redhat

le dernier