Red Hat optimise Red Hat AI pour accélérer le déploiement de l’IA d’entreprise sur des modèles, des accélérateurs d’IA et des clouds.

Une nouvelle vision pour les télécommunications dans un environnement en constante évolution

Red Hat intensifie ses efforts pour offrir des solutions d’intelligence artificielle (IA) aux entreprises avec le lancement de Red Hat AI Inference Server, de modèles tiers validés par Red Hat AI, ainsi que de l’intégration des API de Llama Stack et du Protocole de Contexte des Modèles. Ces avancées visent à propulser les capacités nécessaires aux entreprises pour accélérer l’adoption de l’IA.

Selon Forrester, le logiciel open source sera le catalyseur de l’accélération des efforts en matière d’IA d’entreprise1. À mesure que le paysage de l’IA devient plus complexe et dynamique, le Red Hat AI Inference Server et les modèles tiers validés offrent une inférence de modèles efficace et une gamme éprouvée de modèles d’IA optimisés pour la performance sur la plateforme Red Hat AI. Avec l’intégration de nouvelles API pour le développement d’agents d’IA générative, dont Llama Stack et MCP, Red Hat s’efforce de simplifier le déploiement, en habilitant les responsables informatiques, les data scientists et les développeurs à accélérer les initiatives d’IA avec plus de contrôle et d’efficacité.

Inférence efficace en cloud hybride avec Red Hat AI Inference Server

Le portefeuille de Red Hat AI inclut désormais le nouveau Red Hat AI Inference Server, qui offre une inférence plus rapide, cohérente et rentable à grande échelle dans des environnements de cloud hybride. Ce nouvel outil est intégré dans les dernières versions de Red Hat OpenShift AI et Red Hat Enterprise Linux AI, et est également disponible en tant qu’offre indépendante, permettant aux organisations de déployer des applications intelligentes avec une plus grande efficacité, flexibilité et performance.

Modèles éprouvés et optimisés avec les modèles tiers validés par Red Hat AI

Les modèles tiers validés par Red Hat AI, disponibles sur Hugging Face, aident les entreprises à trouver les modèles adaptés à leurs besoins spécifiques. Red Hat AI propose une collection de modèles validés, ainsi que des guides de déploiement pour renforcer la confiance des clients dans la performance des modèles et la reproductibilité des résultats. Certains modèles sont également optimisés par Red Hat, utilisant des techniques de compression pour réduire la taille et améliorer la vitesse d’inférence, ce qui aide à minimiser la consommation de ressources et les coûts opérationnels. De plus, le processus continu de validation de modèles aide les clients de Red Hat AI à rester à la pointe de l’innovation dans l’IA générative.

API standardisées pour le développement d’applications et d’agents d’IA avec Llama Stack et MCP

Red Hat AI intègre Llama Stack, développé à l’origine par Meta, aux côtés de MCP d’Anthropic, pour offrir aux utilisateurs des API standardisées pour la création et le déploiement d’applications et d’agents d’IA. Llama Stack, actuellement en version préliminaire pour les développeurs dans Red Hat AI, propose une API unifiée pour accéder à l’inférence avec vLLM, la génération augmentée par récupération (RAG), l’évaluation des modèles, les barrières de sécurité et les agents, sur n’importe quel modèle d’IA générative. MCP permet aux modèles de s’intégrer à des outils externes, en fournissant une interface standardisée pour relier des API, des plugins et des sources de données dans les workflows des agents.

La dernière version de Red Hat OpenShift AI (v2.20) offre des améliorations supplémentaires pour la création, l’entraînement, le déploiement et la surveillance à grande échelle des modèles d’IA générative et prédictive, notamment :

  • Catalogue de modèles optimisé (version préliminaire) : Permet un accès facile aux modèles validés de Red Hat et des tiers, facilite leur déploiement dans des clusters de Red Hat OpenShift AI via l’interface de la console web, tout en gérant le cycle de vie de ces modèles grâce à l’enregistrement intégré de Red Hat OpenShift AI.
  • Entraînement distribué via le KubeFlow Training Operator : Permet de planifier et d’exécuter l’ajustement de modèles InstructLab et d’autres charges de travail d’entraînement basées sur PyTorch, distribuées sur plusieurs nœuds et GPU de Red Hat OpenShift, incluant l’accélération de réseaux RDMA distribués et une utilisation optimisée des GPU.
  • Entrepôt de caractéristiques (version préliminaire) : Basé sur le projet communautaire Kubeflow Feast, il offre un référentiel centralisé pour la gestion et le service des données tant pour l’entraînement que pour l’inférence des modèles, rationalisant les flux de travail des données pour améliorer la précision et la réutilisation des modèles.

Red Hat Enterprise Linux AI 1.5 introduit des mises à jour importantes pour la plateforme des modèles fondamentaux de Red Hat. Les caractéristiques clés de la version 1.5 incluent :

  • Disponibilité sur Google Cloud Marketplace : Élargit les options pour l’exécution de Red Hat Enterprise Linux AI dans des environnements de cloud public (avec AWS et Azure), simplifiant le déploiement et la gestion des charges de travail IA sur Google Cloud.
  • Capacités multilingues améliorées pour l’espagnol, l’allemand, le français et l’italien via InstructLab : Permet la personnalisation des modèles à l’aide de scripts natifs, débloquant de nouvelles possibilités pour les applications IA multilingues. Les utilisateurs peuvent également fournir leurs propres modèles de « professeur » pour avoir un contrôle accru sur la personnalisation et les tests des modèles pour des cas d’utilisation spécifiques.

Le service Red Hat AI InstructLab sur IBM Cloud est désormais également disponible de manière générale. Ce nouveau service cloud simplifie davantage le processus de personnalisation des modèles, améliorant la scalabilité et l’expérience utilisateur, permettant ainsi aux entreprises d’exploiter plus facilement leurs données uniques.

La vision de Red Hat : tout modèle, tout accélérateur, tout cloud

L’avenir de l’IA doit être défini par des opportunités illimitées, sans les limitations imposées par les silos d’infrastructure. Red Hat envisage un avenir où les organisations peuvent déployer n’importe quel modèle, sur n’importe quel accélérateur, à travers n’importe quel cloud, offrant une expérience utilisateur exceptionnelle et plus cohérente sans coûts exorbitants. Pour libérer le véritable potentiel des investissements en IA générative, les entreprises ont besoin d’une plateforme d’inférence universelle, un standard pour une innovation en IA plus fluide et performante, tant maintenant que dans le futur.

le dernier