AMD offre des performances supérieures en IA avec les accélérateurs AMD Instinct MI325X.

AMD offre des performances supérieures en IA avec les accélérateurs AMD Instinct MI325X.

AMD (NASDAQ : AMD) a annoncé aujourd’hui de nouvelles solutions d’accélérateurs et de réseaux qui propulseront la prochaine génération d’infrastructures d’intelligence artificielle à grande échelle : les accélérateurs AMD Instinct™ MI325X, la NIC AMD Pensando™ Pollara 400 et le DPU AMD Pensando Salina. Ces nouvelles technologies établissent une norme de performance supérieure pour les modèles d’IA et les centres de données avancés.

Les accélérateurs AMD Instinct MI325X, basés sur l’architecture AMD CDNA™ 3, sont conçus pour offrir des performances et une efficacité exceptionnelles dans des tâches d’IA telles que l’entraînement, l’ajustement fin et l’inférence de modèles de base. Collectivement, ces produits permettent aux clients et partenaires d’AMD de développer des solutions d’IA optimisées et performantes au niveau du système, du rack et du centre de données.

Forrest Norrod, vice-président exécutif et directeur général du groupe Solutions pour centres de données chez AMD, a commenté : « AMD continue à respecter sa feuille de route, offrant à nos clients les performances dont ils ont besoin et la flexibilité qu’ils recherchent pour amener l’infrastructure d’IA à grande échelle sur le marché plus rapidement. Avec les nouveaux accélérateurs AMD Instinct, les processeurs EPYC et les solutions réseau d’AMD Pensando, en plus de notre écosystème logiciel ouvert, AMD renforce son expertise critique pour développer et déployer des solutions d’IA de classe mondiale ».

AMD Instinct MI325X augmente la performance leader en IA

Les accélérateurs AMD Instinct MI325X offrent une capacité de mémoire et une bande passante de premier plan dans le secteur, avec 256 Go de HBM3E prenant en charge 6,0 To/s et offrant 1,8 fois plus de capacité et 1,3 fois plus de bande passante que le H2001. L’AMD Instinct MI325X offre également 1,3 fois plus de performance théorique maximale en FP16 et FP8 que le H200.

Ce leadership en mémoire et calcul peut fournir jusqu’à 1,3 fois la performance d’inférence de Mistral 7B en FP16, 1,2 fois la performance d’inférence avec Llama 3.1 70B en FP8 et 1,4 fois la performance d’inférence avec Mixtral 8x7B en FP16 par rapport à H200.

Les accélérateurs AMD Instinct MI325X sont sur la bonne voie pour les expéditions de production du quatrième trimestre de 2024 et devraient être largement disponibles auprès d’un ensemble étendu de fournisseurs de plateformes à partir du premier trimestre de 2025, y compris Dell Technologies, Eviden, Gigabyte, Hewlett Packard Enterprise, Lenovo, Supermicro et d’autres.

Poursuivant son engagement envers un rythme de sortie annuel, AMD a introduit la prochaine génération d’accélérateurs AMD Instinct Série MI350. Basés sur l’architecture AMD CDNA 4, les accélérateurs de la série MI350 sont conçus pour offrir une amélioration de 35 fois des performances d’inférence par rapport aux accélérateurs basés sur AMD CDNA 3.

La série AMD Instinct MI350 continuera à dominer la capacité de mémoire avec jusqu’à 288 Go de mémoire HBM3E par accélérateur. Les accélérateurs de la série AMD Instinct MI350 sont en cours de disponibilité pour la seconde moitié de 2025.

Réseaux IA de nouvelle génération AMD

AMD tire parti du DPU programmable le plus répandu pour les hyperscalers pour stimuler les réseaux d’IA de prochaine génération. Divisé en deux parties : le front-end, qui livre des données et informations à un cluster d’IA, et le back-end, qui gère le transfert de données entre les accélérateurs et les clusters, le réseau d’IA est essentiel pour garantir que les CPU et les accélérateurs soient utilisés efficacement dans l’infrastructure d’IA.

Pour gérer efficacement ces deux réseaux et propulser les performances élevées, la scalabilité et l’efficacité dans tout le système, AMD a présenté le DPU AMD Pensando™ Salina pour le front-end et l’AMD Pensando™ Pollara 400, la première NIC d’IA préparée pour l’Ultra Ethernet Consortium (UEC) du secteur, pour le back-end.

Le DPU AMD Pensando Salina est la troisième génération du DPU le plus puissant et programmable au monde, doublant les performances, la bande passante et l’échelle par rapport à la génération précédente. Supportant un débit de 400G pour des taux de transfert de données rapides, le DPU AMD Pensando Salina est un composant clé dans les clusters de réseau front-end d’IA, optimisant la performance, l’efficacité, la sécurité et la scalabilité des applications d’IA basées sur les données.

L’AMD Pensando Pollara 400, préparée pour l’UEC et propulsée par le moteur programmable AMD P4, est la première NIC d’IA préparée pour l’UEC du secteur. Elle est compatible avec le logiciel RDMA de prochaine génération et soutenue par un écosystème ouvert de réseaux. L’AMD Pensando Pollara 400 est essentielle pour fournir des performances de pointe, une scalabilité et une efficacité de communication accélérateur à accélérateur dans les réseaux back-end.

Le DPU AMD Pensando Salina et l’AMD Pensando Pollara 400 seront mis à la disposition des clients au quatrième trimestre de 2024 et leur disponibilité est prévue pour le premier semestre de 2025.

Le logiciel AMD d’IA offre de nouvelles capacités pour l’IA générative

AMD poursuit son investissement dans le développement des logiciels et l’écosystème ouvert, afin d’offrir de nouvelles fonctionnalités et capacités puissantes dans sa suite logicielle ouverte AMD ROCm™. Au sein de la communauté des logiciels ouverts, AMD promeut la compatibilité avec les moteurs de calcul d’AMD dans les frameworks, bibliothèques et modèles d’IA les plus utilisés, y compris PyTorch, Triton, Hugging Face et beaucoup d’autres. Ce travail se concrétise par des performances et un support prêts à l’emploi avec les accélérateurs AMD Instinct dans les modèles d’IA générative populaires tels que Stable Diffusion 3, Meta Llama 3, 3.1 et 3.2 et plus d’un million de modèles sur Hugging Face.

Au-delà de la communauté, AMD continue d’avancer avec sa suite logicielle ouverte ROCm, en apportant les dernières fonctionnalités pour soutenir l’entraînement et l’inférence en tête de file dans les charges de travail de l’IA Générative. ROCm 6.2 inclut maintenant le support pour des caractéristiques critiques de l’IA telles que le type de données FP8, Flash Attention 3, Kernel Fusion et plus encore. Avec ces nouvelles additions, ROCm 6.2, par rapport à ROCm 6.0, offre jusqu’à 2,4 fois plus de performances en inférence et 1,8 fois en entraînement pour divers LLM.