AMD a profité du salon CES 2026 à Las Vegas pour présenter une vision ambitieuse : l’Intelligence Artificielle “partout et pour tous” ne pourra devenir réalité sans une nouvelle génération d’infrastructures ouvertes, modulaires et performantes, capables de s’étendre du centre de données au PC en passant par le edge industriel. Lors de la keynote d’ouverture, Lisa Su, Présidente et CEO de la société, a esquissé un saut de l’échelle qui dépasse les simples annonces produits : le secteur entrerait dans une ère de computing à l’échelle yotta, propulsée par une croissance simultanée de l’entraînement et de l’inférence.
La pièce maîtresse de ce message était une première démonstration de “Helios”, la plateforme rack à grande échelle qu’AMD prévoit comme un « plan » de référence pour les infrastructures massives d’IA. La société considère qu’actuellement, la capacité globale tourne autour de 100 zettaflops, et prévoit un bond vers plus de 10 yottaflops en cinq prochaines années. Une évolution qui nécessiterait de repenser non seulement la puissance brute, mais aussi le design des systèmes, les réseaux, l’efficacité énergétique et le logiciel qui les pilote.
Helios : un « plan » pour le rack du futur
AMD définit Helios comme une architecture de rack ouverte et modulaire, conçue pour évoluer avec les générations futures sans nécessiter une « réinvention » complète du centre de données à chaque cycle. Lors du CES, Helios repose sur trois éléments principaux : les accélérateurs AMD Instinct MI455X, les CPU AMD EPYC “Venice” et les cartes réseau AMD Pensando “Vulcano”, permettant d’interconnecter des milliers d’accélérateurs dans un système unifié. Tout cela, souligne la société, est cohérent grâce à l’écosystème logiciel AMD ROCm, qu’elle utilise pour promouvoir une plateforme ouverte face à des alternatives plus fermées sur le marché.
En chiffres, AMD indique que Helios pourra fournir jusqu’à 3 exaFLOPS en IA dans un seul rack, avec un focus particulier sur l’entraînement de modèles de billions de paramètres et sur l’optimisation du débit et de l’efficacité énergétique. Ce chiffre reflète la préoccupation principale du secteur : il ne suffit plus de rajouter des GPU, il faut aussi les alimenter et les coordonner de façon à éviter que la bande passante, la mémoire ou la gestion opérationnelle ne deviennent des goulots d’étranglement.
Instinct MI440X : une solution pour intégrer l’IA sans repenser tout le data center
En plus d’Helios, AMD a étoffé sa gamme d’accélérateurs avec la AMD Instinct MI440X, un modèle destiné aux déploiements entreprise en local. L’idée est pragmatique : de nombreuses entreprises souhaitent entraîner, ajuster et déployer des modèles directement dans leurs infrastructures — pour des raisons de contrôle, de coûts, de conformité ou de souveraineté — sans nécessiter de transformer leur centre de données en usine d’IA de zéro.
La MI440X se présente comme une solution adaptée à l’intégration dans une infrastructure existante, dans un format compact de huit GPU, ciblant des charges d’entraînement, de fine-tuning et d’inférence. Par ailleurs, AMD rappelle que sa feuille de route pour les centres de données et la supercomputing repose sur la famille Instinct MI400, avec des déploiements déjà annoncés dans des laboratoires et des projets nationaux.
MI500 (2027) : la promesse d’un “rendement jusqu’à 1000 fois supérieur” en IA
Le coup d’œil vers l’avenir le plus prometteur fut la présentation de la Série AMD Instinct MI500, prévue pour 2027. AMD affirme que cette génération pourrait offrir jusqu’à 1000 fois plus de performances en IA qu’avec la MI300X lancée en 2023, grâce à l’architecture AMD CDNA 6, à un procédé avancé en 2 nm et à la mémoire HBM4E. Comme c’est souvent le cas pour ces annonces à long terme, ces chiffres sont présentés comme des projections et des objectifs d’ingénierie, non comme des résultats déjà obtenus en produits commerciaux.
Concrètement, le message est clair : AMD souhaite que son parcours dans l’IA ne soit pas perçu comme “une autre option” parmi d’autres GPU, mais comme une compétition continue sur plusieurs générations, où l’efficacité et le logiciel — notamment ROCm — seront aussi décisifs que la puissance du silicium.
L’IA intégrée au PC : Ryzen AI 400, 60 TOPS et une plateforme pour développeurs
La keynote a également abordé le segment utilisateur final, où AMD perçoit un marché massif : celui des PC dotés de capacités IA. La société a présenté les plateformes Ryzen AI 400 Series et Ryzen AI PRO 400 Series, avec une NPU de 60 TOPS et une compatibilité totale avec ROCm, facilitant une montée en charge “de la nuage à l’utilisateur final” pour les développeurs et les entreprises. AMD prévoit que les premiers systèmes seront disponibles en janvier 2026, avec une diffusion plus large dès le premier trimestre 2026 via des OEM.
Plus particulièrement séduisante pour l’inférence locale, la mention des plateformes Ryzen AI Max+ 392 et Ryzen AI Max+ 388, équipées de 128 GB de mémoire unifiée capables de traiter des modèles allant jusqu’à 128 milliards de paramètres. Au-delà du marketing, ces chiffres traduisent une tendance accrue : une partie de l’IA se décentralise vers le périphérique, pour des raisons de confidentialité, de latence, de coûts ou de continuité opérationnelle.
Pour compléter cette évolution, AMD a aussi annoncé la Ryzen AI Halo Developer Platform, un ordinateur de bureau compact (SFF) destiné aux développeurs, qui devrait être lancé au T2 2026. Si l’IA doit véritablement “être partout”, il faut fournir aux créateurs des kits accessibles pour tester, optimiser et déployer sans dépendre uniquement de gros clusters distants.
L’IA dans le monde physique : edge, automobile et robotique
AMD réaffirme son engagement pour le edge computing avec l’annonce des Ryzen AI Embedded, des processeurs x86 pour systèmes embarqués destinés à des applications telles que cockpits digitaux en automobile, la santé intelligente ou l’IA physique dans les systèmes autonomes, incluant la robotique humanoïde. Le fil conducteur reste le même : déplacer l’inférence et la prise de décision près du terrain, où la latence, la consommation et la fiabilité sont aussi cruciaux que la performance brute.
Dimension politique et sociale : Genesis Mission et 150 millions pour l’éducation
La keynote comprenait également un moment d’engagement institutionnel. Lisa Su était accompagnée de Michael Kratsios, chef de la Direction de la Politique Scientifique et Technologique de la Maison Blanche (OSTP), pour évoquer la Genesis Mission, une initiative public-privé visant à renforcer le leadership des États-Unis en IA et accélérer la recherche scientifique. Dans ce contexte, deux supercalculateurs ont été mentionnés : Lux et Discovery, en partenariat avec le Oak Ridge National Laboratory.
Parallèlement, AMD a annoncé un engagement de 150 millions de dollars pour démocratiser l’IA dans les écoles et les communautés, en terminant par une reconnaissance de plus de 15 000 étudiants ayant participé au AMD AI Robotics Hackathon organisé avec Hack Club. Dans une industrie souvent critiquée pour ses impacts énergétiques ou la concentration du pouvoir technologique, ce geste vise à ancrer la notion “d’IA pour tous” dans des actions éducatives concrètes.
Un écosystème de partenaires pour soutenir la vision
AMD a renforcé la présentation en mettant en avant des partenaires qui, selon elle, exploitent déjà ses technologies pour faire progresser l’IA : OpenAI, Luma AI, Liquid AI, World Labs, Blue Origin, Generative Bionics, AstraZeneca, Absci et Illumina entre autres. Sur le plan concurrentiel, le CES confirme une réalité : AMD insiste sur son approche de plateforme ouverte et de co-innovation pour gagner en visibilité face à NVIDIA, qui continue à dominer le rythme et dont la demande en calculs reste très forte.
Questions fréquentes
Qu’est-ce que la plateforme Helios d’AMD et à quoi sert-elle dans les centres de données IA ?
Helios est une architecture rack à grande échelle présentée comme un “plan” pour infrastructures IA à l’échelle yotta, combinant Instinct MI455X, EPYC “Venice”, réseau Pensando “Vulcano” et le logiciel ROCm pour interconnecter des milliers d’accélérateurs.
En quoi la AMD Instinct MI440X se distingue-t-elle des autres solutions IA pour hyperscalers ?
conçue pour les déploiements en entreprise on-premise, la MI440X vise à s’intégrer dans des infrastructures plus traditionnelles, avec un format compact de huit GPU orienté entraînement, fine-tuning et inférence, sans nécessiter une refonte totale du data center.
Quand la série AMD Instinct MI500 sera-t-elle disponible et quels gains apporte-t-elle par rapport à la MI300X ?
Prévue pour 2027, AMD promet jusqu’à 1000 fois plus de performance IA, en s’appuyant sur l’architecture CDNA 6, la finesse de procédé de 2 nm et la mémoire HBM4E ; ces objectifs restent des projections, susceptibles d’évoluer avant le lancement final.
Que signifie avoir une NPU de 60 TOPS dans un PC et quels usages cela habilite-t-il ?
Les TOPS indiquent le nombre d’opérations par seconde pour des tâches IA. Une NPU de 60 TOPS permet d’accélérer l’inférence locale (transcription, détection, reconnaissance, améliorations vidéo/image, assistants, etc.), en réduisant la latence et la dépendance au cloud, mais le rendement réel dépend aussi du modèle et du logiciel utilisé.
source : amd