Intel ha realizado un avance estratégico en su apuesta por el mercado de inteligencia artificial empresarial con la introducción de la versión 1.0 de LLM Scaler, la primera gran actualización del software para su proyecto Project Battlematrix. Esta nueva versión promete un incremento de hasta el 80 % en rendimiento, con optimizaciones específicas para modelos de lenguaje de gran tamaño (LLMs), además de soporte ampliado para IA multimodal y nuevas herramientas de gestión para empresas.
Presentado en Computex 2025, Project Battlematrix fue concebido como una solución integral para la inferencia de IA en estaciones de trabajo y entornos multi-GPU basados en Intel Arc Pro. Intel había anunciado que en el tercer trimestre lanzaría un contenedor “Inference Optimized”, compatible con vLLM, telemetría básica y gestión simplificada. Con la llegada de LLM Scaler v1.0, este objetivo se ha cumplido, incluyendo mejoras como un escalado multi-GPU optimizado, transferencias PCIe P2P que reducen latencias y funciones de fiabilidad empresarial, como ECC y telemetría avanzada.
El nuevo contenedor, compatible con Linux y con estándares industriales, trae importantes avances en rendimiento y gestión. Entre ellos, destaca la aceleración TPOP para secuencias largas, logrando hasta 1,8 veces más rendimiento en modelos KPI de 32B y hasta 4,2 veces en modelos de 70B con 40K tokens. Además, la versión ofrece un rendimiento un 10 % superior en modelos de 8B a 32B comparado con versiones anteriores, e incorpora cuantización en línea para reducir el consumo de memoria GPU. También incluye soporte experimental para técnicas como pipeline parallelism y decodificación especulativa, además de compatibilidad con modelos multimodales y detección automática de longitudes máximas.
Entre las herramientas de gestión, destaca el XPU Manager, que permite la monitorización en tiempo real del consumo energético de GPU, actualizaciones de firmware desde el entorno de gestión y diagnósticos avanzados. Para el rendimiento, Intel ofrece el benchmark OneCCL, para pruebas en entornos distribuidos y multi-GPU.
Intel afirma que con LLM Scaler v1.0 se logra un incremento en rendimiento de hasta el 80 %, facilitando cargas de trabajo con LLMs de gran escala en ámbitos empresariales donde el coste y el consumo energético son críticos. La hoja de ruta de Project Battlematrix contempla tres fases en 2025: en Q3 se lanza el contenedor “Inference Optimized”, seguido de una versión más robusta en finales de ese mismo trimestre, y en Q4 se realizará el lanzamiento completo con todas las funcionalidades previstas.
Este lanzamiento posiciona a Intel como un competidor directo de NVIDIA y AMD en el campo de la inferencia profesional, ofreciendo una alternativa más asequible para centros de datos con limitaciones en espacio y energía, laboratorios de investigación y estaciones de trabajo de alto rendimiento.
Más allá del rendimiento, Project Battlematrix integra herramientas de gestión que permiten a los departamentos de TI mantener un control exhaustivo de la infraestructura de IA, incluyendo gestión remota, actualizaciones de seguridad y optimización de recursos. Intel busca consolidar LLM Scaler como el núcleo de un ecosistema abierto y escalable, que permita desde estaciones de trabajo hasta implementaciones distribuidas en grandes clústeres.
Para ampliar información, las consultas frecuentes aclaran que Project Battlematrix es la plataforma de Intel para optimizar la inferencia de modelos IA en entornos multi-GPU, y que LLM Scaler v1.0 ofrece mejoras sustanciales en rendimiento y gestión, disponible en el repositorio oficial de Intel en GitHub. La compañía continúa su apuesta por ofrecer alternativas competitivas en un mercado dominado por NVIDIA y AMD, centradas en la eficiencia, el coste y la gestión de recursos.
Échange de SIM : voici comment fonctionne la fraude qui continue à compromettre les comptes bancaires en 2025