NVIDIA présente DGX Spark et DGX Station : superordinateurs IA personnels pour le bureau

NVIDIA présente DGX Spark et DGX Station : superordinateurs IA personnels pour le bureau

NVIDIA LANCE SES NOUVEAUX SUPERORDINATEURS D’INTELLIGENCE ARTIFICIELLE PERSONNELS AU GTC

NVIDIA a récemment annoncé lors du GTC le lancement de ses nouveaux superordinateurs d’intelligence artificielle personnels, le DGX Spark et le DGX Station, conçus pour mettre la puissance de l’IA avancée directement entre les mains des développeurs, chercheurs, scientifiques des données et étudiants. Ces deux systèmes sont alimentés par la plateforme NVIDIA Grace Blackwell et seront disponibles par le biais de fabricants de renom tels qu’ASUS, Dell Technologies, HP et Lenovo.

L’intelligence artificielle, désormais accessible depuis le bureau

Le DGX Spark, anciennement connu sous le nom de Project DIGITS, est présenté comme le superordinateur d’IA le plus compact au monde. Ce dispositif permettra à des millions de professionnels et d’étudiants de travailler localement avec des modèles d’IA générative et physique, sans avoir à dépendre exclusivement de la cloud. Le système est équipé du superchip NVIDIA GB10 Grace Blackwell, qui intègre des cœurs Tensor de cinquième génération et un support FP4, atteignant jusqu’à 1 000 billions d’opérations par seconde pour des processus d’ajustement fin et d’inférence avec les modèles d’IA les plus avancés.

Grâce à la technologie NVLink-C2C, ce superchip offre un modèle de mémoire cohérente CPU+GPU avec une bande passante cinq fois supérieure à celle du PCIe de cinquième génération, optimisant ainsi les performances pour les charges de travail intensives en mémoire.

DGX Station : Performance de centre de données en format desktop

De son côté, le DGX Station intègre le nouveau superchip NVIDIA GB300 Grace Blackwell Ultra, offrant un espace de mémoire cohérente de 784 Go, idéal pour l’entraînement et l’inférence à grande échelle. Ce système intègre également la carte réseau NVIDIA ConnectX-8 SuperNIC, capable d’atteindre des vitesses allant jusqu’à 800 Gb/s, permettant de connecter plusieurs stations DGX et de gérer des transferts de données volumineux pour des charges de travail IA avancées.

Le DGX Station combine tout cela avec la plateforme NVIDIA CUDA-X AI et propose un accès aux microservices NVIDIA NIM™ inclus dans la suite d’entreprise NVIDIA AI Enterprise, facilitant l’implémentation de modèles d’inférence avec un support spécialisé.

Intégration avec le cloud et disponibilité

Les utilisateurs pourront transférer facilement leurs modèles depuis ces dispositifs vers la plateforme DGX Cloud ou toute autre infrastructure cloud ou centre de données, sans nécessiter de changements majeurs dans le code.

Les précommandes pour les systèmes DGX Spark sont déjà ouvertes via le site officiel de NVIDIA. Quant au DGX Station, il sera disponible au cours de l’année avec des fabricants tels qu’ASUS, BOXX, Dell, HP, Lambda et Supermicro.

Ce développement confirme l’ambition de NVIDIA de démocratiser l’accès à la computation IA à grande échelle, permettant ainsi à l’innovation et au développement de modèles avancés de s’opérer également depuis des environnements de bureau, sans dépendre uniquement d’infrastructures distantes.

Source : NVIDIA News

le dernier