Red Hat Enterprise Linux AI est désormais disponible en général pour stimuler l’innovation en IA d’entreprise en production.

Red Hat Enterprise Linux AI est désormais disponible en général pour stimuler l'innovation en IA d'entreprise en production.

Red Hat, Inc., leader mondial dans les solutions open source, a annoncé la disponibilité générale de Red Hat Enterprise Linux (RHEL) AI dans le cloud hybride. Cette nouvelle plateforme de modèles de base permet aux utilisateurs de développer, tester et exécuter des modèles d’intelligence artificielle (IA) générative de manière efficace, améliorant ainsi les applications d’entreprise. RHEL AI combine Granite, une famille de modèles linguistiques en open source, aux outils d’alignement de modèles InstructLab, basés sur la méthodologie LAB (Alignement à grande échelle pour chatbots). La plateforme est emballée comme une image RHEL optimisée, prête à être déployée sur des serveurs individuels dans des environnements de cloud hybride.

Malgré le grand potentiel de l’IA générative, les coûts associés à l’acquisition, la formation et l’ajustement de grands modèles linguistiques (LLM) peuvent être extrêmement élevés, certains modèles coûtant jusqu’à presque 200 millions de dollars rien qu’en formation. Ces coûts n’incluent pas l’ajustement aux exigences spécifiques des organisations, qui nécessitent souvent des scientifiques de données et des développeurs spécialisés. L’alignement pour adapter les modèles à des données et processus d’entreprise spécifiques est crucial, rendant l’efficacité et l’agilité essentielles à la mise en œuvre de l’IA en production.

Red Hat anticipe qu’au cours de la prochaine décennie, les modèles d’IA plus petits, efficaces et personnalisés constitueront une partie importante du stack technologique des entreprises, aux côtés des applications natives du cloud. Pour atteindre cet objectif, l’IA générative doit être accessible en termes de coûts, de disponibilité et de compatibilité avec le cloud hybride. Red Hat soutient qu’une approche open source, similaire à celle qui a résolu des problèmes logiciels complexes pendant des décennies, peut réduire les barrières à l’adoption effective de l’IA générative.

Une approche open source pour l’IA Générative

Ce sont les défis que RHEL AI cherche à relever, rendant l’IA générative plus accessible, plus efficace et plus flexible pour les CIO et les organisations TI d’entreprise à travers le cloud hybride. RHEL AI aide à:

  • Stimuler l’innovation en matière d’IA générative avec les modèles d’entreprise Granite sous licence open source, alignés sur un large éventail de cas d’utilisation de l’IA générative.
  • Optimiser l’adaptation des modèles d’IA générative aux exigences de l’entreprise avec l’outil InstructLab, qui permet aux experts dans le domaine et aux développeurs d’une organisation d’apporter leurs compétences et connaissances uniques à leurs modèles, même sans disposer de vastes connaissances en science des données.
  • Former et déployer l’IA générative n’importe où dans le cloud hybride en fournissant tous les outils nécessaires pour ajuster et déployer des modèles pour des serveurs de production où que vivent les données associées. RHEL AI fournit également une voie d’accès à Red Hat OpenShift AI pour former, régler et servir ces modèles à l’échelle en utilisant les mêmes outils et concepts.

RHEL AI bénéficie aussi des avantages d’un abonnement à Red Hat, qui comprend la distribution de produits d’entreprise fiables, un soutien à la production 24h/24 et 7j/7, un support étendu du cycle de vie des modèles et des protections juridiques de Open Source Assurance.

RHEL AI s’étend à travers le cloud hybride

Rapprocher une plateforme de modèles de base plus cohérente de l’endroit où résident les données d’une organisation est crucial pour soutenir les stratégies d’IA en production. Comme une extension des plateformes de cloud hybride de Red Hat, RHEL AI couvrira presque tous les environnements d’entreprise imaginables, des centres de données locaux aux bords du réseau et au cloud public. Cela signifie que RHEL AI sera disponible directement de Red Hat, des partenaires OEM de Red Hat et pour s’exécuter chez les plus grands fournisseurs de cloud au monde, y compris Amazon Web Services (AWS), Google Cloud, IBM Cloud et Microsoft Azure. Cela permet aux développeurs et aux organisations TI d’utiliser la puissance des ressources informatiques à hyperéchelle pour construire des concepts d’IA innovants avec RHEL AI.

Disponibilité

RHEL AI est disponible de manière générale via le Portail Client de Red Hat pour exécuter sur site ou pour charger sur AWS et IBM Cloud en tant qu’offre « apportez votre propre abonnement » (BYOS, par ses sigles en anglais). La disponibilité d’une offre BYOS sur Azure et Google Cloud est prévue pour le quatrième trimestre de 2024 et il est également prévu que RHEL AI soit disponible sur IBM Cloud en tant que service avant la fin de cette année.

Red Hat prévoit d’augmenter la disponibilité de RHEL AI via les partenaires cloud et OEM dans les prochains mois, offrant ainsi encore plus d’options dans les environnements de cloud hybride.