La révolution de l’informatique de haute performance ne se limite plus à la résolution d’équations impossibles : elle vise désormais à entraîner des modèles d’intelligence artificielle capables d’aider à concevoir de nouveaux matériaux, à comprendre des maladies complexes ou à gérer des réseaux électriques entiers. Dans ce contexte, AMD s’est positionné au cœur du dispositif en combinant du matériel à très haute performance avec une couche logicielle ouverte pour faire évoluer l’IA dans les entreprises et les centres de recherche.
Sa dernière annonce rassemble plusieurs éléments clés : un nouveau supercalculateur exascale en Europe, deux « usines d’IA » aux États-Unis, une présence renforcée dans les classements Top500 et Green500, ainsi qu’une plateforme logicielle, AMD Enterprise AI Suite, conçue pour déployer la IA en quelques minutes, du laboratoire à la production.
Alice Recoque : la France entre dans la ligue exascale
Avec Alice Recoque, l’Europe franchit une étape majeure : un supercalculateur exascale construit en France qui sera le premier du pays et le second en Europe à dépasser la barrière de l’exaflop en performance de calcul en virgule flottante double précision (HPL). Ce système sera hébergé par l’agence française GENCI, exploité par le CEA et développé en partenariat avec Eviden, en utilisant la technologie de nouvelle génération d’AMD, tant pour le CPU que pour le GPU.
Alice Recoque fera converger des processeurs AMD EPYC de nouvelle génération, nom de code « Venice », et des accélérateurs AMD Instinct MI430X, conçus spécifiquement pour les charges de travail à très haut rendement et les modèles d’IA avancés. L’objectif est de dépasser l’exaflop en performance HPL, ce qui le placera parmi les supercalculateurs les plus puissants d’Europe pour la simulation scientifique traditionnelle, tout en étant une “usine d’IA” européenne dédiée à des projets dans le climat, l’énergie, l’industrie ou la santé.
Au-delà de la simple puissance, le système est conçu avec une forte orientation vers l’efficacité énergétique et la souveraineté technologique : réduire la consommation par calcul tout en assurant que toute la capacité critique reste sous contrôle européen, avec des composants et une architecture maîtrisés par l’Europe et ses partenaires de confiance.
Quatre des dix supercalculateurs les plus rapides… et une empreinte grandissante
Ce lancement intervient à un moment stratégique pour AMD dans le domaine du supercalcul. La société affirme que ses technologies alimentent aujourd’hui quatre des dix supercalculateurs les plus rapides au monde, dont Frontier — le premier système exascale opérationnel au monde — et El Capitan, actuellement en tête du classement Top500.
Au total, 177 systèmes du Top500 sont basés sur du matériel AMD, ce qui représente environ 35 % des superordinateurs les plus puissants au monde. Sur la liste Green500, qui évalue l’efficacité énergétique (rendement par watt), 26 des 50 systèmes les plus efficaces utilisent également la technologie AMD.
Ce leadership ne se limite pas aux grands centres nationaux. AMD pousse son architecture EPYC dans le cloud avec des instances HPC spécifiques : Microsoft Azure propose en général des machines virtuelles HBv5 pour des charges exigeantes basées sur CPU, tandis que Google Cloud offre les H4D, qui multiplient par presque quatre le rendement de la génération précédente (C2D) sur des tâches HPC classiques, telles que la simulation industrielle, la prévision météorologique ou les applications en santé. Par ailleurs, d’autres fournisseurs comme AWS ont lancé des instances spécialisées basées sur EPYC pour des calculs techniques intensifs.
L’idée est claire : faire en sorte que tout l’écosystème hardware qui alimente des supercalculateurs comme Frontier ou El Capitan soit aussi disponible « en service » dans le cloud, permettant aux entreprises et aux laboratoires de louer des milliers de cœurs de calcul pour des périodes déterminées.
Lux et Discovery : des usines d’IA souveraines aux États-Unis
Dans le domaine de l’IA avancée, le mouvement le plus marquant est l’accord entre AMD et le Département de l’Énergie américain (DOE) pour construire deux nouveaux supercalculateurs dédiés à l’IA au laboratoire national d’Oak Ridge (ORNL) : Lux et Discovery. Ce projet, estimé à environ 1 milliard de dollars, s’inscrit dans la stratégie d’« IA souveraine » des États-Unis et dans le cadre de l’initiative American AI Stack, visant à disposer d’une infrastructure interne pour l’entraînement des modèles de nouvelle génération.
Lux sera le premier à voir le jour, avec un déploiement prévu à partir de 2026. Présenté comme la première « usine d’IA » dédiée à la recherche scientifique aux États-Unis, il s’agit d’un système conçu pour entraîner et déployer des modèles fondamentaux susceptibles de faire progresser les matériaux, la biologie, l’énergie propre ou la sécurité nationale. Il exploitera des processeurs AMD EPYC de 5e génération, des accélérateurs AMD Instinct MI355X et des réseaux programmables AMD Pensando, dans une architecture optimisée pour l’entraînement et l’inférence de modèles volumineux.
Discovery, quant à lui, sera le prochain supercalculateur d’élite d’ORNL, succédant à Frontier. Il s’appuiera sur des GPUs AMD Instinct MI430X et des CPU EPYC « Venice », intégrés dans la nouvelle plateforme de supercalcul HPE Cray. Son déploiement est prévu pour 2028–2029, avec pour objectif d’améliorer encore les performances et l’efficacité énergétique, en combinant calcul classique et charges d’IA à grande échelle pour des applications telles que l’énergie de fusion, la simulation de matériaux avancés ou la cybersécurité.
Ces deux systèmes sont conçus comme les piliers de l’infrastructure d’IA souveraine des États-Unis, avec un accès partagé entre centres de recherche, universités et partenaires industriels.
Du laboratoire au data center d’entreprise : AMD Enterprise AI Suite
Une autre composante proposée par AMD est la plateforme logicielle AMD Enterprise AI Suite, une solution ouverte et unifiée permettant aux entreprises de toute taille de développer, déployer et gérer des charges d’IA sur des GPUs AMD Instinct.
Construite comme une pile complète, native de Kubernetes, elle relie l’infrastructure de calcul (qu’elle soit bare-metal ou cloud) avec des outils d’orchestration, d’inférence et de gestion du cycle de vie des modèles. Parmi ses éléments clés :
- AMD Inference Microservices (AIMs) : conteneurs d’inférence préconfigurés, intégrant des modèles, moteurs et configurations optimisées pour le hardware AMD, avec des API compatibles OpenAI et une prise en charge des modèles à poids ouverts.
- AMD AI Workbench : un environnement de développement pour data scientists et équipes IA, proposant des workflows de fine-tuning à faible code, des workspaces basés sur des notebooks ou IDE, et des outils pour gérer les déploiements AIMs.
- AMD Resource Manager : un plan de contrôle pour gérer des clusters de GPU, avec planification intelligente, quotas, suivi des métriques et politiques d’accès.
Le but est de permettre à une entreprise de passer en quelques minutes d’une infrastructure brute à une plateforme d’IA prête pour la production, en utilisant des composants open source et en évitant le verrouillage propriétaire. Pour les responsables IT, cela offre davantage de contrôle sur les coûts, la gouvernance et la sécurité ; pour les équipes de data science, un accès plus direct aux GPUs et une capacité de déploiement plus simple des modèles en production.
Science accélérée : protéines, matériaux et plus encore
Au-delà de l’infrastructure, AMD illustre concrètement comment cette puissance de calcul peut transformer la recherche scientifique. En collaboration avec le Lawrence Livermore National Laboratory et l’Université de Columbia, un des plus grands et rapides flux de travail de prédiction de structures de protéines jamais réalisé a été achevé sur El Capitan, exploitant toute la puissance du supercalculateur.
Ces simulations sont essentielles pour accélérer la découverte de médicaments, mieux comprendre des maladies complexes ou concevoir des enzymes et protéines synthétiques à des fins industrielles ou environnementales. En combinant modèles d’IA et simulations traditionnelles, il devient possible d’explorer des espaces de conception auparavant inaccessibles avec des méthodes classiques.
Par ailleurs, AMD annonce une collaboration avec l’institut japonais RIKEN pour des projets conjoints en recherche et développement dans les domaines du supercalcul et de l’IA. Ce partenariat prévoit l’échange de chercheurs, la planification de projets communs et d’autres activités, renforçant la position d’AMD comme partenaire technologique dans de grands écosystèmes scientifiques.
Un leadership qui mêle matériel, efficacité et logiciel ouvert
Le message global est qu’AMD ambitionne d’occuper une place centrale dans la nouvelle ère du supercalcul : pas seulement en vendant des puces, mais en proposant une combinaison de matériel à très haute performance, d’efficacité énergétique et de logiciel ouvert, permettant à gouvernements, laboratoires et entreprises de bâtir leurs propres « usines d’IA ».
Avec des supercalculateurs comme Alice Recoque, Lux ou Discovery, la société assure une présence dans certains des équipements scientifiques les plus stratégiques d’Europe et des États-Unis. À travers sa position croissante dans les classements Top500 et Green500, AMD insiste sur l’importance de l’efficacité énergétique au même titre que la puissance brute. Enfin, avec AMD Enterprise AI Suite, elle veut aussi faire évoluer le monde de l’entreprise, où la course au contrôle des plateformes d’IA reste ouverte.
Chaque chiffre — un exaflop, quatre des dix systèmes les plus rapides, 1 milliard de dollars en partenariats — traduit une ambition commune : réduire le délai entre l’idée et l’expérimentation, entre le modèle et la découverte. La réussite de cette course ne se mesurera pas uniquement en benchmarks, mais également en innovations concrètes : nouveaux matériaux, médicaments, solutions énergétiques, et réponses à des problématiques aujourd’hui hors de portée.
Questions fréquentes sur AMD, supercalcul et IA d’entreprise
Qu’est-ce qu’un superordinateur exascale comme Alice Recoque et pourquoi est-ce crucial ?
Un supercalculateur exascale peut effectuer au moins 1 exaflop, soit un trillion d’opérations en virgule flottante par seconde. De tels systèmes permettent de réaliser des simulations scientifiques extrêmement complexes — climat, plasma, matériaux, protéines — et d’entraîner des modèles d’IA massifs en un temps raisonnable. Leur importance dépasse la sphère scientifique : ils jouent un rôle clé dans la compétitivité industrielle, la souveraineté technologique et la sécurité nationale.
Que signifie que Lux et Discovery soient des « usines d’IA souveraines » ?
Le concept d’« AI Factory » désigne des infrastructures dédiées à l’entraînement, l’ajustement et le déploiement continus de modèles d’IA à grande échelle. Le qualificatif « souveraine » indique que la capacité de calcul, les données et les modèles clés restent sous contrôle de la juridiction nationale (ici, celle des États-Unis), limitant la dépendance aux fournisseurs étrangers et renforçant l’autonomie stratégique en énergie, défense ou santé.
En quoi AMD Enterprise AI Suite se distingue-t-elle d’autres plateformes d’IA pour entreprises ?
Cette suite logicielle se veut entièrement ouverte, modulaire et native de Kubernetes. Elle repose sur des composants open source et des APIs standard, évitant le verrouillage propriétaire, tout en facilitant l’intégration de divers modèles et outils. Elle inclut, en standard, des microservices d’inférence (AIMs), un workbench pour le développement et un gestionnaire de ressources pour l’administration des clusters GPU à grande échelle.
Comment cette infrastructure AMD peut-elle bénéficier aux entreprises qui ne disposent pas de centres de recherche spécialisés ?
Même si ses applications les plus visibles concernent les supercalculateurs nationaux, la technologie (processeurs EPYC, GPUs Instinct, suite logicielle) est aussi déployée dans le cloud et dans des centres de données d’entreprise. Cela permet à des secteurs comme l’automobile, l’énergie, la finance, la santé ou la grande distribution d’accéder à des capacités de simulation et d’IA autrefois réservées aux grands laboratoires — optimisation de chaînes logistiques, entraînement de modèles linguistiques internes, conception de produits via des jumeaux numériques, etc.
via : amd