Red Hat et AMD renforcent leur collaboration stratégique et élargissent les options des clients pour l’IA et la virtualisation dans le cloud hybride.

Une nouvelle vision pour les télécommunications dans un environnement en constante évolution

Red Hat et AMD annoncent une collaboration stratégique pour optimiser l’intelligence artificielle et l’infrastructure virtualisée

Red Hat, un leader des solutions open source, et AMD (NASDAQ: AMD) ont récemment révélé une collaboration stratégique visant à renforcer les capacités d’intelligence artificielle (IA) et à optimiser l’infrastructure virtualisée. Cette alliance permettra aux deux entreprises d’offrir aux clients davantage d’options dans des environnements de cloud hybride, allant de l’implémentation de modèles IA plus performants à la modernisation économique des machines virtuelles traditionnelles.

Face à la demande croissante et à la diversité des tâches propulsées par l’IA, les organisations doivent disposer de ressources et de capacités adaptées pour relever ces nouveaux défis. Cependant, de nombreux centres de données demeurent centrés sur des systèmes informatiques traditionnels, limitant leur capacité à gérer des charges de travail intensives comme celles liées à l’IA.

Pour surmonter ce défi, Red Hat et AMD allient la puissance des solutions open source de Red Hat aux architectures de haute performance d’AMD, proposant une solution conjointe adaptée aux nouvelles exigences technologiques actuelles.

Une IA générative plus efficace grâce à la synergie Red Hat et AMD

Cette collaboration permet de combiner l’intelligence de Red Hat AI avec l’offre de processeurs x86 et d’architectures GPU d’AMD. Les GPU AMD Instinct sont désormais pleinement intégrés à Red Hat OpenShift AI, offrant aux clients la puissance de traitement nécessaire pour des déploiements IA dans le cloud hybride sans nécessiter des ressources excessives. De plus, les GPU AMD Instinct MI300X, associés à Red Hat Enterprise Linux AI, ont été testés avec succès sur Microsoft Azure, démontrant leur aptitude à réaliser des inférences IA pour des modèles de langage de petite et grande taille, le tout au sein d’une seule VM, ce qui permet de réduire les coûts de performance.

Pour améliorer la performance et la capacité d’adaptation, Red Hat et AMD travaillent également au sein de la communauté vLLM pour optimiser l’inférence IA. Leur collaboration a pour objectifs :

  • Amélioration des performances avec les GPUs AMD : En optimisant la bibliothèque du noyau d’AMD et divers composants comme Triton et FP8, ils garantissent une exécution plus rapide et efficace de vLLM sur les accelerateurs AMD.

  • Support multi-GPU amélioré : Grâce à une communication collective optimisée et à l’amélioration des charges de travail multi-GPU, le déploiement d’IA devient plus scalable et économe en énergie.

  • Engagement renforcé envers l’écosystème vLLM : Des collaborations croisées avec des leaders du secteur comme IBM favorisent le développement du projet vLLM et l’optimisation des GPU AMD.

Les GPU AMD Instinct supporteront également le Red Hat AI Inference Server, pour une solution d’inférence IA professionnelle, fiable et scalable. En tant que principal partenaire commercial d’vLLM, Red Hat assure la compatibilité lors de l’implémentation sur le matériel de l’organisation, y compris les GPU AMD Instinct.

Transformer le centre de données moderne

En optimisant les infrastructures existantes, les organisations peuvent allouer des ressources de manière plus efficace pour encourager l’innovation en IA. Red Hat OpenShift Virtualization facilite la migration et la gestion des machines virtuelles avec la rapidité d’une plateforme d’applications cloud-native. Validé pour les processeurs AMD EPYC, cet outil exploite leur efficacité énergétique, tout en maintenant un lien vers un futur cloud-native.

En renouvelant des centres de données obsolètes, Red Hat OpenShift Virtualization permet une intégration fluide des machines virtuelles et des applications conteneurisées, que ce soit sur site ou dans le cloud hybride. Cela aide à réduire considérablement le coût total de possession (TCO) en matière de matériel, de licences de software et d’énergie, tout en permettant une gestion plus efficace des charges de travail critiques. Ce virage vers l’IA garantira que les ressources et l’énergie soient redirigées vers les charges de travail liées à l’IA, tant aujourd’hui que demain.

le dernier