AMD prépare l’Instinct MI450X IF128 : son pari massif pour défier Nvidia dans le calcul IA à grande échelle.

AMD prépare l'Instinct MI450X IF128 : son pari massif pour défier Nvidia dans le calcul IA à grande échelle.

Le nouveau système avec 128 GPU se profile comme un concurrent direct du VR200 NVL144 de Nvidia en 2026

AMD fait un pas décisif pour concurrencer dans le haut du panier du matériel d’intelligence artificielle. Selon un rapport de SemiAnalysis, la société prépare pour 2026 deux nouveaux accéléra­teurs de la série Instinct : les MI450X IF64 et MI450X IF128, capables de s’étendre jusqu’à 64 et 128 GPU respectivement dans des architectures en rack.

Avec cette proposition ambitieuse, AMD vise à rivaliser directement avec le puissant Nvidia VR200 NVL144, un système avec 72 GPU déjà établi comme une référence dans les environnements IA et d’inférence à haute performance. Le nouveau design d’AMD promet une meilleure scalabilité, une interconnexion avancée et une plus grande bande passante entre les GPU.


Présentation de l’Instinct MI450X IF128 : architecture et puissance

Le MI450X IF128 sera le premier système d’AMD offrant un support pour plusieurs accéléra­teurs d’IA répartis sur deux racks, connectés via Infinity Fabric sur Ethernet, marquant ainsi un tournant significatif dans la stratégie de scalabilité de la société.

Composants clés :

  • 16 serveurs 1U, chacun avec :
    • 1 CPU AMD EPYC ‘Venice’
    • 4 GPU Instinct MI450X
    • Mémoire LPDDR dédiée
    • Stockage SSD PCIe x4
  • 128 GPU au total, chacun avec :
    • Plus de 1,8 To/s de bande passante interne unidirectionnelle pour la communication inter-GPU
    • Jusqu’à 3 cartes réseau 800GbE par GPU pour l’extension entre racks
    • Un total de 2,4 To/s de bande passante sortante par GPU

Cela permettra à AMD de construire des clusters d’IA beaucoup plus grands et denses que ce qu’elle a pu réaliser jusqu’à présent avec la série MI300.


Une alternative plus compacte : MI450X IF64

Pour minimiser les risques techniques et faciliter l’implémentation initiale, AMD prépare également une variante simplifiée : le MI450X IF64. Ce modèle sera limité à un seul rack, avec une architecture plus contenue mais reposant sur les mêmes principes de design et de scalabilité.

Cette approche progressive permettrait à AMD de lancer d’abord le système le plus stable et contrôlé, avant de s’étendre à la version à 128 GPU, qui présente des défis techniques importants en termes d’intégration, de consommation d’énergie et de refroidissement.


Qu’est-ce qui distingue AMD de Nvidia ?

Bien que Nvidia domine le marché avec ses solutions GB200 NVL72 et VR200 NVL144, l’approche d’AMD présente certaines particularités :

  • Câblage passif en cuivre, contre l’utilisation de câbles optiques actifs par Nvidia. Cela pourrait réduire les coûts et la consommation d’énergie, bien que cela présente des limites potentielles en termes d’intégrité du signal ou de distance.
  • Une plus grande densité de GPU, avec 128 unités contre 72 pour le système de Nvidia, ce qui pourrait offrir un avantage dans des charges de travail hautement parallélisables, à condition de maintenir l’efficacité thermique et énergétique.
  • Interconnexion basée sur Infinity Fabric étendu, marquant une évolution par rapport aux conceptions traditionnelles d’AMD et proposant une architecture plus modulaire et extensible.

Le défi de l’exécution

Le véritable défi pour AMD n’est pas seulement technique, mais également logistique : fabriquer, assembler et déployer un système de cette complexité nécessite une coordination précise entre le matériel, le firmware, le logiciel et les fournisseurs.

Bien qu’AMD ait démontré ces dernières années sa capacité à rivaliser avec Nvidia sur de nombreux fronts (grâce au succès d’EPYC et des GPU MI300X), atteindre le niveau d’échelle et d’intégration des systèmes complets que Nvidia propose avec le GB200 demeure une course encore ouverte.


Le Instinct MI450X IF128 n’est pas seulement un autre accéléra­teur, mais un coup de poing lancé par AMD pour se positionner sur le marché compétitif des infrastructures d’IA à grande échelle. Si l’entreprise parvient à exécuter ce design ambitieux avec succès, elle pourrait devenir un acteur clé non seulement dans la formation de modèles, mais aussi dans l’inférence d’entreprise.

Avec 2026 qui approche à grands pas, et une nouvelle génération de modèles de langage avec des besoins en puissance de calcul de plus en plus exigeants, le duel entre AMD et Nvidia dans l’IA promet de prendre une nouvelle dimension… littéralement, au niveau du rack.

Source : AMD, Tom’s hardware et semianalisis

le dernier