AMD souhaite que Helios cesse de rester une promesse sur une feuille de route pour devenir une plateforme concrète dédiée aux centres de données d’Intelligence Artificielle. Le 16 mars, la société a annoncé une collaboration stratégique avec Celestica pour commercialiser cette architecture en rack de nouvelle génération, conçue pour de vastes déploiements en IA et basée sur des standards ouverts. Cet accord confère à Celestica la responsabilité de la recherche et développement, du design et de la fabrication des commutateurs d’interconnexion interne du système, une composante clé dans toute infrastructure d’IA à grande échelle.
À première vue, cela pourrait sembler un autre communiqué parmi la multitude d’alliances dans le domaine de l’Intelligence Artificielle. Mais Helios vise quelque chose de plus profond. AMD ne parle pas seulement de vendre des GPU ou CPU, mais d’offrir une architecture complète en rack pour l’entraînement et l’inférence, avec une vocation industrielle, prête à déployer en cloud, en entreprise ou en recherche. La disponibilité pour les clients est prévue pour fin 2026, confirmant que la société souhaite aborder la prochaine grande vague d’infrastructures IA avec une solution plus intégrée et surtout plus ouverte que celles de nombreux concurrents.
Helios n’est plus simplement un nom sur une feuille de route AMD
Helios n’est pas apparu de nulle part ce mois-ci. AMD construit son récit autour de cette plateforme depuis plus de six mois. En juin 2025, elle l’a présentée comme sa prochaine grande solution en rack pour l’IA, basée sur les GPU Instinct de nouvelle génération, le CPU EPYC « Venice » et la NIC « Vulcano ». En octobre, elle a associé cette architecture au format Open Rack Wide, impulsé par Meta dans le cadre du Open Compute Project, et en janvier 2026, elle l’a déjà définie comme le « blueprint » d’une infrastructure capable de péta-échelles, avec jusqu’à 3 exaflops en IA par rack selon ses propres estimations. Autrement dit, la collaboration avec Celestica ne démarre pas à zéro : elle marque la transition de la vision technique vers l’industrialisation du système.
Ce détail est important car le marché de l’IA ne se limite plus à un composant individuel, mais se structure en racks. Les charges d’entraînement massives et les inférences distribuées nécessitent des plateformes intégrées où GPU, CPU, mémoire, réseau et logiciel fonctionnent en harmonie. AMD a compris cela et cherche depuis un certain temps à vendre non seulement des accélérateurs, mais aussi une infrastructure plus fermée en intégration, tout en restant ouverte sur les standards. Helios s’inscrit dans cette démarche : un système complet alliant silicium, réseau, logiciel ROCm et conception physique en rack, raconté dans une seule narrative.
Le rôle de Celestica va bien au-delà du simple assemblage
Dans ce plan, Celestica occupe une position moins visible qu’AMD, mais probablement tout aussi cruciale. Selon le communiqué conjoint, l’entreprise canadienne sera responsable de la recherche, du design et de la fabrication des commutateurs d’interconnexion « scale-up » dans l’architecture Helios, basés sur le format OCP Open-Rack-Wide. Ces commutateurs utiliseront des siliciums de réseau avancé pour connecter à haute vitesse les GPU AMD Instinct MI450 Series, en utilisant l’architecture Ultra Accelerator Link over Ethernet, ou UALoE.
Ce n’est pas un détail technique mineur. Dans la nouvelle génération de systèmes IA, l’interconnexion interne du rack s’est imposée comme un véritable goulot d’étranglement. Avoir des accélérateurs puissants ne suffit plus : ils doivent communiquer avec une latence minimale, une large bande passante et une topologie évitant de transformer le système en un labyrinthe d’inefficacités. UALink et ses variantes sur Ethernet ont été conçus précisément dans cette optique : ouvrir un espace d’interconnexion des accélérateurs, longtemps verrouillé et lié à des technologies propriétaires. Le consortium UALink promeut cette approche pour fournir une interconnexion haute bande passante, faible latence, dans une spécification gouvernée par l’industrie, et non par un seul fournisseur.
Celestica n’intervient donc pas uniquement comme un assembleur, mais comme un partenaire pour concrétiser un élément fondamental du rack : le réseau interne reliant GPU et permettant la montée en charge du système. Cela rejoint aussi une des grandes lignes de communication d’AMD pour 2025 et 2026 : réduire les délais de déploiement, renforcer la résilience de la chaîne d’approvisionnement et offrir une alternative basée sur des standards ouverts et des partenaires manufacturiers externes.
L’enjeu réel se joue au niveau du modèle d’infrastructure
Ce lancement offre également un aperçu des ambitions d’AMD en matière de compétition. La société ne cache pas que sa stratégie pour l’IA ne se limite plus à la simple comparaison d’accélérateurs, mais consiste à défendre une architecture d’infrastructure complète en rack. Dans des accords précédents, comme ceux conclus avec Oracle et HPE, AMD a déjà inscrit Helios dans des déploiements concrets : Oracle a annoncé en octobre 2025 que ses futurs superclusters IA s’appuieraient sur Helios, avec une première implantation publique de 50 000 GPU prévue pour le troisième trimestre 2026. HPE, de son côté, a évoqué en décembre une version du système avec le GPU MI455X capable d’atteindre jusqu’à 2,9 exaflops FP4 par rack, selon les chiffres d’AMD et de l’alliance.
Ce contexte permet de mieux comprendre pourquoi Helios est désormais stratégique. AMD ne souhaite pas seulement lancer une gamme de produits, mais bâtir un écosystème d’infrastructures scalables, réplicables : un design de référence déployable en cloud public, en centres privés, en environnements scientifiques ou en plateformes souveraines d’IA, sans dépendre d’une architecture fermée. Le format Open Rack Wide, présenté par Meta en OCP 2025 comme un standard ouvert pour racks doubles, capable de supporter des charges extrêmes en puissance, refroidissement et maintenance, s’intègre parfaitement dans cette vision d’une infrastructure ouverte et évolutive.
Il y a également une dimension industrielle sous-jacente. AMD sait que pour rivaliser réellement dans l’IA à grande échelle, il ne suffit pas d’avoir une bonne GPU. Il faut une plateforme crédible, des partenaires capables de produire en masse, un logiciel mature et un réseau capable d’assurer la gestion de clusters toujours plus grands. Celestica apporte justement cette partie : expertise en design, fabrication, chaîne d’approvisionnement et solutions d’infrastructure de centres de données. Cette alliance vise à résoudre un défi pratique que rencontrent déjà nombre de clients : comment déployer des systèmes IA complexes sans que chaque projet ne devienne une integration artisanale, lente et risquée.
Restons toutefois prudents. Helios reste, pour l’instant, une plateforme encore en devenir. Ses éléments clés — MI450, UALoE à grande échelle, commutateurs « scale-up » et disponibilité large prévue pour fin 2026 — s’inscrivent dans une feuille de route ambitieuse, et non dans un produit déjà massivement installé dans des centaines de centres de données. Mais c’est précisément cette annonce avec Celestica qui montre qu’AMD a franchi une étape cruciale : elle a quitté la phase purement conceptuelle pour commencer à concrétiser une industrialisation via des partenaires capables de transformer ses designs en matériel déployable.
Questions fréquentes
Qu’est-ce exactement que la plateforme AMD Helios pour l’IA ?
C’est une architecture en rack complet pour l’Intelligence Artificielle, développée par AMD, intégrant des accélérateurs Instinct de nouvelle génération, un CPU EPYC « Venice », une interconnexion réseau Pensando et une interconnexion interne conçue pour les déploiements massifs en entraînement et inférence. AMD la présente comme une plateforme ouverte, reposant sur les standards du Open Compute Project.
Quel rôle jouera Celestica dans le projet Helios ?
Celestica sera responsable de la recherche, du design et de la fabrication des commutateurs d’interconnexion internes au rack, une pièce essentielle pour connecter à haute vitesse les GPU de la plateforme Helios.
Quand Helios sera-t-il disponible pour les clients ?
AMD et Celestica ont indiqué une disponibilité pour la fin de 2026. D’autres annonces d’AMD situent aussi ses déploiements majeurs de Helios dans la seconde moitié de 2026.
Pourquoi parle-t-on autant de standards ouverts dans cette plateforme AMD ?
Parce qu’Helios s’appuie sur des éléments tels que l’OCP Open Rack Wide et UALoE, dans l’objectif de proposer une infrastructure plus interopérable, évolutive et moins dépendante de technologies propriétaires pour le cœur du système IA.