Rackspace Technology et AMD ont signé un protocole d’accord pour créer une infrastructure d’Intelligence Artificielle d’entreprise, axée sur les charges critiques, les secteurs réglementés et les environnements où la sécurité, la souveraineté et la responsabilité opérationnelle ne peuvent être une simple couche ajoutée en fin de projet. L’accord prévoit une Cloud IA d’Entreprise gérée sur des GPU AMD Instinct et des processeurs AMD EPYC, avec Rackspace en tant qu’opérateur responsable de l’ensemble du stack, du matériel à l’inférence et aux agents en production.
Cette annonce intervient à un moment où de nombreuses entreprises sont passées du simple expérimentations sur des modèles de langage à la recherche de solutions pour déployer l’Intelligence Artificielle en production tout en conservant le contrôle des données, des coûts, de la conformité réglementaire et de la disponibilité. Ces deux dernières années, une grande partie du marché a tourné autour de la location d’horaire GPU. Rackspace et AMD proposent une approche différente : une infrastructure dédiée, managée et gouvernée, avec un fournisseur assumant davantage de responsabilités pour l’intégration et l’exploitation quotidienne.
La fine ligne aussi a son importance. Il ne s’agit pas encore d’un contrat définitif pour le déploiement d’une plateforme spécifique, mais d’un MOU, un cadre de collaboration potentiel entre les deux entreprises. Rackspace souligne dans son communiqué que aucun accord définitif n’a été conclu et qu’il n’est pas garanti que tous les bénéfices escomptés se matérialisent. Cette nuance n’atténue pas l’intérêt de l’initiative, mais elle doit inviter à la considérer comme une démarche stratégique en développement, et non comme un produit pleinement stabilisé dès le départ.
De la location de GPU à une IA d’entreprise avec responsabilité unique
La position de Rackspace est claire : le modèle dominant oblige les entreprises à louer de la capacité GPU tout en assumant la complexité de l’intégration, de la sécurité, de la gouvernance, du déploiement et de la responsabilité. Pour les entreprises ayant des charges sensibles, cette approche peut être insuffisante. Disposer d’accélérateurs ne suffit pas ; il faut les intégrer dans un cadre opérationnel permettant de savoir où se trouvent les données, qui y accède, comment les processus sont audités, quel niveau de service est garanti, et que faire lorsqu’une charge échoue.
Le partenariat avec AMD vise à combler cette lacune par le biais de quatre capacités. La première est l’Enterprise AI Cloud, un cloud privé et hybride géré sur AMD Instinct et AMD EPYC destiné aux entreprises nécessitant souveraineté, conformité et contrôle opérationnel. La seconde est l’Enterprise Inference Engine, un runtime d’inférence contextualisé pour l’entreprise, intégrant historique de session et connaissances métier afin de faire fonctionner modèles et agents avec plus de cohérence en production.
La troisième composante est Inference as a Service, une offre de GPU AMD Instinct dédiés et gérés, avec outils d’inférence et d’ajustement fin, proposée comme une alternative gouvernée au simple louage de GPU. La quatrième est Bare Metal AMD Instinct, adaptée aux clients nécessitant un isolement physique, des performances déterministes et un accès direct au matériel pour des charges d’entraînement ou d’inférence très personnalisées.
Ce qui différencie cette offre d’un fournisseur cloud standard ne réside pas uniquement dans le matériel. La différence réside dans la promesse opérationnelle. Rackspace souhaite être le responsable unique de la plateforme, avec des accords de niveau de service, un support matériel, une gouvernance et un contrôle des coûts. Pour des secteurs comme la finance, la santé, la fonction publique, les télécoms ou la fabrication avancée, ce type d’approche peut apparaître plus attractif que de déporter des données sensibles vers des services d’IA génériques, sans architecture claire de responsabilités.
AMD cherche plus d’espace face à la domination de NVIDIA
Pour AMD, ce partenariat renforce ses efforts dans l’infrastructure d’IA d’entreprise. NVIDIA conserve une position dominante dans l’accélération, les logiciels, l’écosystème et l’adoption par les hyperscalers, mais AMD s’efforce de gagner du terrain avec Instinct, EPYC et ROCm. La communication d’AMD ces derniers mois a été constante : proposer une alternative ouverte, performante et adaptée aux entreprises voulant déployer l’IA dans leurs centres de données ou via des clouds privés.
Les GPU AMD Instinct MI300X sont déjà orientés vers les charges d’IA générative et HPC, avec une grande mémoire et un haut débit. Plus récemment, AMD a lancé la série MI350, notamment la MI350P PCIe, conçue pour déployer de l’IA générative et des agents au sein d’infrastructures existantes, sans exiger une refonte complète des centres de données. Cette approche convient aux entreprises qui veulent éviter de dépendre uniquement de grands clusters fermés ou d’attendre des cycles longs de renouvellement matériel.
Le rôle des EPYC est également fondamental. Dans de nombreuses architectures d’IA, la discussion tourne souvent autour du GPU, mais la performance réelle dépend de l’ensemble du système : CPU, mémoire, réseau, stockage, virtualisation, sécurité, orchestration, observabilité et logiciel. Rackspace et AMD souhaitent vendre cette combinaison comme une plateforme opérationnelle, et non simplement une liste de composants.
Autre élément central : ROCm, la pile logicielle ouverte d’AMD pour l’accélération. Le défi pour AMD face à NVIDIA n’est pas uniquement dans le silicium, mais dans la maturité de l’écosystème. CUDA est depuis des années le standard de facto pour les développeurs, frameworks et laboratoires de recherche. Pour que l’Enterprise AI Cloud basée sur AMD soit attractive, Rackspace devra réaliser une grande partie du travail complexe : intégration, validation de modèles, compatibilité des outils, optimisation de l’inférence, support et exploitation continue.
Gouvernance, souveraineté et agents en production
Le terme “gouverné” n’est pas anodin. Les entreprises ne demandent plus seulement si un modèle répond bien, mais si le système peut s’intégrer dans leurs politiques de sécurité, d’audit, de permissions, de traçabilité et de conformité. Cela devient plus sensible avec les agents IA, car il ne s’agit pas uniquement d’interroger un modèle, mais de systèmes capables d’exécuter des étapes, de lancer des outils, de consulter des données internes et d’automatiser des tâches.
Rackspace propose que son Enterprise Inference Engine conserve le contexte métier, l’historique de session et les données spécifiques de l’entreprise entre deux requêtes. Cela peut améliorer l’utilité des agents et modèles en production, mais accroît également les exigences en matière de sécurité. Si un système retient une mémoire institutionnelle, il doit le faire dans un environnement contrôlé : séparation des clients, chiffrement, audit, limites d’accès, conservation des données, politiques de suppression et supervision humaine pour les processus critiques.
Ce positionnement est particulièrement pertinent pour les charges souveraines. En Europe, de nombreuses organisations réévaluent l’emplacement de leurs systèmes IA, qui opère l’infrastructure, quelles lois s’appliquent, et comment protéger les données contre les accès non autorisés. Un fournisseur américain comme Rackspace ne résout pas à lui seul tous ces enjeux de souveraineté numérique, mais l’idée d’un cloud privé, hybride et gouverné répond à une demande concrète : l’IA d’entreprise ne peut toujours dépendre de services publics génériques lorsque les données ou processus sont sensibles.
Il existe aussi une dimension commerciale. Beaucoup de clients ne souhaitent pas devenir eux-mêmes opérateurs d’infrastructures IA. Ils veulent utiliser leurs modèles, agents et données en toute sécurité. Cela ouvre un espace pour des fournisseurs gérés qui ne se limitent pas à la compétition sur le prix à l’heure GPU, mais qui prennent en charge la complexité opérationnelle. Rackspace tente ainsi de se repositionner : non pas en simple hébergeur ou cloud managé, mais en opérateur d’IA d’entreprise de bout en bout.
Ce partenariat avec AMD s’inscrit dans cette stratégie, mais son succès dépendra de son exécution. Les acteurs réglementés n’achètent pas des promesses : ils exigent références, certifications, performance mesurable, support, coûts prévisibles et capacité à s’intégrer à leurs systèmes existants. Si Rackspace parvient à transformer le MOU en offres concrètes, avec des déploiements tangibles et des SLA crédibles, il pourra occuper une position intéressante entre le cloud public des hyperscaleurs et l’infrastructure privée autogérée.
En résumé, la course à l’Intelligence Artificielle d’entreprise entre dans une phase plus sobre. Accéder aux GPU ne suffit plus. La vraie question devient : qui gouverne l’infrastructure, qui répond en cas de panne, comment auditons-nous l’utilisation des données et quel fournisseur peut faire passer modèles et agents en production sans transformer chaque déploiement en une opération artisanale. Rackspace et AMD ont perçu ce besoin. La prochaine étape est de le transformer en plateforme opérationnelle concrète.
Questions fréquentes
Que viennent d’annoncer Rackspace et AMD ?
Ils ont signé un protocole d’accord pour créer une infrastructure d’Intelligence Artificielle d’entreprise gouvernée, basée sur des GPU AMD Instinct, des processeurs AMD EPYC, et exploitée par Rackspace.
Ce partenariat est-il déjà un accord commercial définitif ?
Non, pas encore. Il s’agit d’un MOU, d’un cadre de collaboration potentiel. Rackspace précise qu’aucun accord définitif n’a été conclu et que les discussions sont encore au stade préliminaire.
En quoi cela diffère-t-il de la location de GPU à l’heure ?
L’offre vise à proposer une infrastructure dédiée, gérée et gouvernée, avec Rackspace en chargé d’exploitation, plutôt que de laisser au client toute la responsabilité de l’intégration, de la sécurité, du déploiement et de l’opération.
À quels types d’entreprises s’adresse cette offre ?
Aux organisations avec des charges critiques ou réglementées, telles que la banque, la santé, la fonction publique, l’industrie, les télécommunications ou les entreprises nécessitant souveraineté, conformité, isolement physique et maîtrise des coûts.