GMI Cloud s’associe à DGX Cloud Lepton de NVIDIA pour propulser la prochaine génération d’intelligence artificielle

GMI Cloud s'associe à DGX Cloud Lepton de NVIDIA pour propulser la prochaine génération d'intelligence artificielle

GMI Cloud Renforce sa Position avec l’Intégration au DGX Cloud Lepton de NVIDIA

Mountain View, Californie – La société américaine GMI Cloud, spécialisée dans l’infrastructure GPU en tant que service (GPU-as-a-Service), a annoncé son partenariat en tant que l’un des premiers fournisseurs à s’associer à DGX Cloud Lepton, une nouvelle plateforme introduite par NVIDIA. Cette initiative vise à faciliter l’accès mondial à des ressources de calcul haute performance pour les développeurs d’intelligence artificielle (IA).

GMI Cloud met en avant son infrastructure GPU de pointe, intégrant des clusters basés sur les nouvelles GPUs NVIDIA Blackwell. Ces dernières sont optimisées pour les charges de travail IA à grande échelle, allant de l’inférence en temps réel aux entraînements prolongés, tout en respectant les exigences de souveraineté numérique.

Qu’est-ce que DGX Cloud Lepton ?

Dévoilé lors du Computex 2025, DGX Cloud Lepton est une initiative de NVIDIA visant à répondre à l’un des plus grands défis rencontrés par les développeurs d’IA : l’accès unifié, scalable et fiable à des ressources GPU hautes performances. Cette plateforme permettra aux développeurs de prototyper, entraîner, scaler et déployer des modèles d’IA sans contraintes géographiques.

Elle est intégrée de manière native avec des outils essentiels de l’écosystème NVIDIA, tels que :

  • NVIDIA NIM microservices
  • NVIDIA NeMo (modèles de base et LLMs)
  • NVIDIA Blueprints (templates IA pour entreprises)
  • NVIDIA Cloud Functions

L’Offre de GMI Cloud au sein de l’Écosystème Lepton

Dans le cadre du lancement de DGX Cloud Lepton, GMI Cloud propose aux développeurs des clusters de 16 nœuds avec des GPU Blackwell et un support multirégional. Les points clés de leur contribution incluent :

  • Accès direct à une infrastructure GPU optimisée pour le coût, la performance et la scalabilité.
  • Disponibilité régionale stratégique, conçue pour répondre aux exigences réglementaires et de latence réduite.
  • Infrastructure propriétaire de pile complète, permettant des prix compétitifs et des déploiements rapides.
  • Toolchain avancée et déploiements accélérés, grâce à l’intégration avec l’ensemble du logiciel NVIDIA.

Le PDG de GMI Cloud, Alex Yeh, a déclaré :

"DGX Cloud Lepton reflète tout ce en quoi nous croyons : rapidité, souveraineté et scalabilité sans compromis. Nous construisons notre infrastructure du silicium au nuage pour permettre aux développeurs de bâtir des IA sans limites."

Implications pour l’Écosystème IA

La collaboration entre GMI Cloud et NVIDIA souligne une tendance croissante : la nécessité d’environnements de calcul distribués et accessibles, réduisant les barrières au développement de l’IA générative, d’agents autonomes et de l’inférence à grande échelle.

Avec cette alliance, GMI Cloud se positionne comme une solution solide pour les équipes d’IA, qui désirent un contrôle total sur les coûts, la latence et la performance, sans dépendre uniquement des hyperscalers traditionnels.

GMI Cloud s’affirme ainsi comme un acteur incontournable dans la nouvelle ère de l’infrastructure pour l’IA, alliant puissance, souveraineté et rapidité au sein d’une plateforme distribuée.

le dernier