Hewlett Packard Enterprise lance des nouveautés en informatique accélérée, stockage et observabilité optimisées pour l’architecture validée NVIDIA Enterprise AI Factory
Dans le cadre du Computex 2025, Hewlett Packard Enterprise (HPE) a annoncé une expansion significative de sa collaboration avec NVIDIA, visant à façonner la prochaine génération de fonderies d’intelligence artificielle (AI Factories). La nouvelle offre conjointe intègre des améliorations en matière de stockage, serveurs, cloud privé et logiciels de gestion, couvrant l’ensemble du cycle de vie de l’IA : de l’ingestion des données à l’entraînement et à l’inférence.
« Nous construisons les bases pour que les entreprises puissent tirer parti de l’intelligence comme nouveau ressource industrielle, depuis le centre de données jusqu’au cloud et l’edge », a déclaré Jensen Huang, fondateur et PDG de NVIDIA.
HPE Private Cloud AI : IA privée évolutive avec sécurité et rapidité
Le système HPE Private Cloud AI, développé en collaboration avec NVIDIA, se positionne comme une solution de cloud privé pour l’IA intégrant de l’informatique accélérée et des outils spécifiques tels que NVIDIA NIM, des SDK et des modèles pré-entraînés. À partir de l’été 2025, cette plateforme prendra également en charge des mises à jour "feature branch" de NVIDIA AI Enterprise, permettant aux développeurs d’expérimenter de nouvelles fonctionnalités en environnements de validation avant de passer à la production.
Cette infrastructure est optimisée pour les applications d’IA générative (GenAI) et IA agéntica, en accord avec la conception validée de NVIDIA Enterprise AI Factory.
Nouveau stockage HPE Alletra MP X10000 avec SDK pour la plateforme de données de NVIDIA
HPE a également annoncé une intégration stratégique entre sa nouvelle solution de stockage Alletra Storage MP X10000 et la plateforme de données IA de NVIDIA. Le SDK offrira des fonctionnalités avancées telles que :
- L’indexation vectorielle et l’enrichissement de métadonnées.
- L’accès direct à la mémoire entre GPUs et stockage (RDMA).
- La composition modulaire pour évoluer en capacité et performance de manière indépendante.
Ce flux de travail optimise le traitement des données non structurées pour l’inférence, l’entraînement et l’apprentissage continu, essentiels dans des environnements où l’IA agéntica nécessite un accès en temps réel à des données fiables et contextualisées.
Serveur HPE ProLiant DL380a Gen12 : puissance validée par benchmarks
Le serveur HPE ProLiant Compute DL380a Gen12, qui a dominé plus de 50 tests de performance MLPerf v5.0, sera disponible avec jusqu’à 10 GPUs NVIDIA RTX PRO 6000 Blackwell Server Edition à partir du 4 juin. Les fonctionnalités incluent :
- Réfrigération par air et refroidissement liquide direct (DLC).
- Sécurité renforcée avec iLO 7 et préparation pour la cryptographie post-quantique.
- Gestion avancée des opérations avec HPE Compute Ops Management.
Ce serveur vient compléter d’autres modèles phares tels que le DL384 Gen12 avec processeurs NVIDIA GH200 NVL2 et le Cray XD670, qui a été en tête de 30 benchmarks d’inférence en LLMs et vision par ordinateur.
Observabilité totale avec HPE OpsRamp
HPE OpsRamp, le logiciel de gestion IT basé sur le SaaS, ajoute le support pour les nouveaux GPU RTX PRO 6000 Blackwell. Les caractéristiques notables comprennent :
- La surveillance des performances GPU et de la consommation énergétique.
- L’automatisation des réponses aux événements critiques (comme la surchauffe).
- La prédiction des besoins en ressources.
- La gestion des charges de travail distribuées en environnements hybrides.
Avec une intégration directe avec les technologies de réseau et d’informatique accélérée de NVIDIA telles que BlueField, Quantum InfiniBand et Base Command Manager, HPE propose une plateforme complète pour l’observabilité de l’IA à pile complète.
Disponibilité
- HPE Private Cloud AI avec support pour les modèles "feature branch" sera disponible cet été.
- Le SDK du Alletra X10000 arrivera également à l’été 2025.
- Le DL380a Gen12 avec RTX PRO 6000 Blackwell sera disponible à partir du 4 juin.
- OpsRamp Software sera accessible pour les nouveaux GPU lors de leur lancement.
Le câble sous-marin SMAP avance en Australie : voici comment sera la nouvelle autoroute de données transcontinentale