HPE accélère la carrière de l’IA avec le premier rack « Helios » d’AMD basé sur Ethernet standard

HPE accélère la carrière de l'IA avec le premier rack « Helios » d'AMD basé sur Ethernet standard

Hewlett Packard Enterprise (HPE) a profité de l’événement HPE Discover Barcelone 2025 pour annoncer l’un des produits les plus ambitieux de la nouvelle vague d’infrastructures dédiées à l’intelligence artificielle : le tout premier rack « Helios » d’AMD prêt pour l’entraînement et l’inférence de modèles jusqu’à des milliards de paramètres, doté d’une architecture réseau scale-up basée sur Ethernet standard. Conçu pour les centres de données et les fournisseurs de cloud souhaitant rivaliser dans la course à l’IA à grande échelle.

L’entreprise sera parmi les premières à proposer cette référence de conception d’AMD en solution clé en main : un seul rack capable, selon les chiffres officiels, d’atteindre jusqu’à 2,9 exaflops de performance en FP4, avec 72 GPU AMD Instinct MI455X par rack et un réseau interne pouvant transmettre 260 téraoctets par seconde de bande passante agrégée.

Un rack pensé pour des modèles de milliards de paramètres

L’objectif d’« Helios » est évident : offrir une plateforme ouverte, intégrée et extrêmement dense pour l’entraînement et le déploiement de modèles d’IA de nouvelle génération, y compris les LLM de milliards de paramètres et les charges de travail d’inférence massive.

Quelques données clés du design présenté par HPE et AMD :

  • 72 GPU AMD Instinct MI455X par rack
  • Jusqu’à 2,9 exaflops en FP4 pour l’entraînement et l’inférence de modèles géants
  • 260 TB/s de bande passante scale-up entre les accélérateurs
  • 31 TB de mémoire HBM4 et 1,4 PB/s de bande passante mémoire pour alimenter les GPU
  • Support pour le trafic d’entraînement de modèles « trillion-parameters » et pour des scénarios d’inférence à haut volume

Le tout s’intègre dans une architecture de rack basée sur les spécifications Open Rack Wide (ORW) du Open Compute Project, optimisée pour la distribution électrique, la haute densité et la refroidissement liquide direct, une exigence presque incontournable compte tenu des densités et consommations de cette nature à l’ère de l’IA.

Ethernet standard plutôt que réseaux propriétaires

Un des éléments les plus remarquables de cette annonce est le rôle central joué par le réseau : HPE introduit un nouveau scale-up switch de HPE Juniper Networking, développé en partenariat avec Broadcom, basé sur leur puce Tomahawk 6, et utilisant le standard Ultra Accelerator Link over Ethernet (UALoE).

Concrètement, cela signifie que l’interconnexion des GPU à l’intérieur du rack se fait via Ethernet standard, mais avec une pile matérielle et logicielle spécifique à l’IA qui promet :

  • Une latence ultra-faible
  • Zéro perte (lossless) sur le réseau interne
  • Capacité à supporter des schémas de trafic intensifs et corrélés, typiques de l’entraînement distribué de grands modèles

Cette approche contraste avec d’autres solutions du marché basées sur des réseaux propriétaires ou des interconnexions fermées. Elle renforce la stratégie de HPE, AMD et Broadcom de promouvoir un écosystème IA bâtit sur des standards ouverts afin de minimiser le risque de vendor lock-in au niveau réseau.

Une stack ouverte : EPYC, Instinct, Pensando et ROCm

« Helios » ne se limite pas à une simple armoire remplie de GPU. Son architecture associe toute la stack AMD en un seul système :

  • CPU AMD EPYC de nouvelle génération pour orchestrer les charges de travail
  • GPU AMD Instinct MI455X comme moteur principal pour l’entraînement et l’inférence
  • AMD Pensando pour les fonctionnalités réseaux avancées et l’offload
  • ROCm, la stack logicielle ouverte d’AMD pour le calcul accéléré, en tant que couche logicielle de base

De son côté, HPE apporte son expertise dans les systèmes exascale (notamment avec les superordinateurs basés sur Cray) et ses équipes de services pour concevoir, déployer et faire fonctionner ces infrastructures, en intégrant notamment un refroidissement liquide direct et répondant à des exigences électriques très strictes.

Ce produit se positionne clairement comme une alternative aux systèmes fermés à base de GPU d’autres fabricants, avec un message répété dans le secteur : « n’importe quel modèle, sur n’importe quel hardware », mais cette fois soutenu par des standards ouverts (OCP, Ethernet, UALoE) aussi bien pour le hardware que pour le software (ROCm).

Pensé pour CSP, neoclouds et centres de données IA

Bien que l’annonce ait été faite dans le contexte d’un grand fournisseur, les cibles dépassent largement les hyper-scalers traditionnels : HPE évoque explicitement cloud service providers (CSP), neoclouds et opérateurs de centres de données souhaitant proposer une infrastructure IA en tant que service, pour :

  • Former leurs propres modèles de grande taille
  • Proposer des plateformes de fine-tuning et de RAG pour les clients professionnels
  • Mettre en place des clusters dédiés pour des entreprises souhaitant maîtriser leurs modèles et leurs données

Le concept de rack clé en main présente un avantage clair : réduire le délai entre l’achat et la mise en production du cluster IA. HPE promet des déploiements accélérés, une intégration simplifiée, et la possibilité d’étendre rapidement d’un seul rack à des dizaines ou centaines, en conservant le même design de référence.

L’IA ne se limite plus aux modèles : il s’agit aussi de racks et de mégawatts

Le lancement de « Helios » intervient à un moment où la conversation autour de l’IA évolue vers l’hardware sous-jacent :

  • Les coûts énergétiques par inférence
  • La disponibilité des GPU ou accélérateurs
  • La complexité du refroidissement
  • Les délais de déploiement de nouveaux clusters

Les grands acteurs technologiques et fournisseurs d’infrastructure rivalisent pour offrir plus de performance par rack et par watt, tout en adoptant une standardisation permettant une montée en charge mondiale.

Dans ce cadre, l’accent mis par HPE sur une architecture ouverte reposant sur Ethernet standard et référentiels OCP reflète une stratégie de long terme : permettre que le même design de rack puisse être déployé dans différents centres de données à l’échelle planétaire, sans dépendre de composants propriétaires difficiles à se procurer ou à intégrer.

Disponibilité et perspectives

HPE confirme que le rack « Helios » d’AMD sera disponible à l’échelle mondiale en 2026. La cible principale reste les fournisseurs de cloud, les grands centres de données IA, ainsi que les organisations souhaitant bâtir des infrastructures de formation et d’inférence à grande échelle.

Les évolutions à venir incluront notamment :

  • Des clusters multi-racks connectés via des réseaux scale-out basés sur Ethernet
  • Une intégration avec des plateformes d’orchestration IA et MLOps
  • Des offres « en mode service » permettant aux clients d’accéder à la capacité d’entraînement ou d’inférence sans se soucier du matériel physique

Ce qui apparaît évident, c’est que le marché de l’IA se déplace de plus en plus vers l’infrastructure de base : qui peut offrir le plus de performance, plus rapidement, en consommant moins d’énergie, sur des plateformes ouvertes permettant aux entreprises et aux gouvernements de garder le contrôle de leurs données et modèles. Dans cette course, le tandem HPE–AMD veut affirmer sa volonté de ne pas rester en retrait.

Source : hpe

le dernier