NVIDIA porte l’IA de bureau au niveau supérieur avec DGX Spark et DGX Station : modèles ouverts et de pointe, sans quitter le bureau

NVIDIA porte l'IA de bureau au niveau supérieur avec DGX Spark et DGX Station : modèles ouverts et de pointe, sans quitter le bureau

La course à l’exécution de modèles d’intelligence artificielle de plus en plus grands ne se limite plus aux centres de données. Lors du CES 2026, NVIDIA a mis en avant un nouveau scénario : le bureau du développeur. La société a présenté NVIDIA DGX Spark et NVIDIA DGX Station, deux systèmes “deskside” conçus pour permettre aux équipes d’ingénierie, de recherche et de science des données de tester, ajuster et exécuter localement des modèles avancés, avec la possibilité de passer ensuite au cloud selon les besoins.

Ce mouvement répond à une réalité désormais incontournable : le logiciel open source accélère l’innovation, mais les flux de travail modernes — du RAG (recherche et génération augmentée) aux agents et aux raisonnements à plusieurs étapes — exigent mémoire unifiée, performance soutenue et outils optimisés. Dans ce contexte, NVIDIA propose que DGX Spark et DGX Station servent de « pont » entre le laboratoire personnel et l’infrastructure d’entreprise, réduisant la friction pour travailler avec des modèles de plus en plus volumineux sans dépendre en permanence de racks distants.

Deux machines, deux niveaux : des modèles ouverts au « frontier » local

La proposition s’articule en deux étapes clairement distinctes. DGX Spark vise un usage large : un système compact, « plug-and-play », prêt à exécuter et affiner des modèles de pointe directement sur le bureau. DGX Station, quant à lui, s’adresse à des environnements où l’on travaille avec des volumes extrêmes : laboratoires de recherche, groupes d’ingénierie de performance ou entreprises souhaitant expérimenter à grande échelle sans transformer chaque itération en un pool de GPU dans le cloud.

NVIDIA résume cette différence en un message clair : DGX Spark permet de manipuler des modèles d’environ 100 milliards de paramètres, tandis que DGX Station porte la barre jusqu’à un trillion de paramètres dans un système deskside. La clé, selon la société, est que ces deux appareils reposent sur Grace Blackwell, combinant mémoire cohérente et performance dans des niveaux adaptés à l’état actuel de l’IA : beaucoup de contexte, davantage de raisonnement et une efficacité accrue.

DGX Spark : optimisation “prêt-à-l’emploi” pour les grands modèles sur un poste de travail

DGX Spark se présente comme une machine conçue pour que le développeur ne commence pas « de zéro ». Elle est préconfigurée avec la stack logicielle de NVIDIA et les bibliothèques CUDA-X pour accélérer les tâches usuelles d’un flux IA : prototypage, ajustement fin, inférence et validation.

Un point technique mis en avant par NVIDIA est l’utilisation du format NVFP4, associé à l’architecture Blackwell. La société indique que ce format permet de compresser les modèles jusqu’à 70 % tout en améliorant la performance, sans perte de capacité du modèle. Cela est particulièrement pertinent dans un contexte bureautique où la mémoire disponible et le coût du transfert de données limitent souvent la capacité.

En outre, NVIDIA met en valeur une collaboration avec la communauté open source, notamment llama.cpp, qui aurait enregistré en moyenne une augmentation de 35 % des performances lors de l’exécution de modèles, ainsi que des améliorations en termes de convivialité, comme la réduction du temps de chargement des grands modèles de langage. L’idée est claire : il ne suffit pas d’avoir du matériel rapide, mais d’allier optimisation, formats numériques avancés et écosystème open source pour rapprocher des modèles autrefois confinés aux centres de données d’un bureau.

Par ailleurs, la plateforme NVIDIA indique qu’DGX Spark offre jusqu’à 128 Go de mémoire unifiée et la capacité de traiter localement des modèles de jusqu’à 200 milliards de paramètres, idéal pour le fine-tuning ou la validation, dans un cadre de développement et de test.

DGX Station : le “GB300” sort du rack pour s’installer dans votre bureau

Alors que DGX Spark vise à démocratiser l’accès aux grands modèles, DGX Station cherche à transformer la routine des développeurs d’infrastructure et de frameworks. NVIDIA affirme que le DGX Station est construit avec le GB300 Grace Blackwell Ultra et dispose de 775 Go de mémoire cohérente. Ce détail explique pourquoi la société le positionne comme capable de faire fonctionner des modèles d’environ un trillion de paramètres sur un système local.

Au-delà des chiffres, c’est l’usage qui prime : les développeurs de runtimes et moteurs d’inférence vivent souvent dans un cycle d’itérations lent, entravé par la disponibilité du hardware. Des acteurs clés du secteur, comme vLLM, soulignent à quel point il est difficile de tester et optimiser directement pour GB300 lorsque ce type de puces est généralement déployé en environnements rack-scale. Des contributions comme SGLang mettent en avant la possibilité de travailler localement avec des modèles très volumineux et des configurations exigeantes, sans dépendre d’infrastructures dans le cloud.

NVIDIA cite des exemples de modèles exigeants correspondant à ce concept — y compris des récents dans la scène “frontier” et open-weight — et positionne DGX Station comme un outil pour raccourcir le cycle de développement : tester des modifications, ajuster les kernels CUDA, valider les performances et itérer, le tout en restant dans le laboratoire.

Démonstrations : vitesse, visualisation massive et agents interactifs “physiques”

Au CES, NVIDIA a présenté en direct le DGX Station avec des démonstrations impressionnantes par leur volume et leur rythme. Parmi celles-ci, un pré-entraînement atteignant 250 000 tokens par seconde, ainsi que des flux de visualisation avec des millions de points et la création / visualisation de vastes bases de connaissances via “Text to Knowledge Graph”. Ces cas d’usage illustrent une idée forte : un poste capable de supporter des charges jusqu’ici réservées aux centres de données.

DGX Spark, quant à lui, se positionne comme une solution pratique pour la production créative et le prototypage. NVIDIA indique que des modèles de diffusion ou de génération vidéo — comme ceux proposés par Black Forest Labs ou Alibaba — supportent désormais NVFP4, ce qui réduit la consommation mémoire et accélère leur exécution. Dans une démo, la société affirme que DGX Spark peut découpler des charges de génération vidéo qui satureraient un ordinateur portable de créateur, en réalisant une accélération par un facteur de 8 par rapport à un MacBook Pro M4 Max dans un scénario de création vidéo générative.

Une attention particulière est aussi portée à la sécurité et à la confidentialité : NVIDIA présente un assistant local pour la programmation CUDA, basé sur NVIDIA Nsight, tournant sur DGX Spark, permettant aux entreprises de bénéficier d’une productivité accrue sans externaliser leur code ni leurs données.

Enfin, la démonstration la plus “CES” inclut un partenariat avec Hugging Face : la combinaison de DGX Spark avec le robot Reachy Mini, un agent interactif doté de vision, de voix et de capacités motrices, accompagnée d’un guide étape par étape publié par Hugging Face. L’image est puissante : l’agent ne se limite plus à une simple interface dans un navigateur, mais devient un objet tangible sur la table, prêt à interagir avec son environnement.

Écosystème, disponibilité et message global : IA locale sans renoncer à l’échelle

Le réseau de partenaires qui proposera ces systèmes renforce la volonté de NVIDIA de faire de ces solutions une nouvelle catégorie. La société annonce que DGX Spark et ses systèmes associés seront disponibles via des fabricants et partenaires tels qu’Acer, Amazon, ASUS, Dell, GIGABYTE, HP, Lenovo, Micro Center, MSI et PNY. Concernant DGX Station, la disponibilité est prévue à partir du printemps 2026, avec des partenaires comme ASUS, Boxx, Dell, GIGABYTE, HP, MSI et Supermicro.

Côté logiciel, NVIDIA introduit une pièce majeure : NVIDIA AI Enterprise étendra son support à DGX Spark et aux systèmes GB10 des partenaires, avec des licences attendues pour fin janvier. Cela garantit un support fiable, des pilotes et une gestion simplifiée pour les entreprises.

Le message de fond est clair : l’IA est trop critique — et trop coûteuse — pour se limiter à une seule modalité. NVIDIA défend une vision hybride : développement local et sécurisé pour préserver le contrôle, l’itération et la propriété intellectuelle, associé à un passage au centre de données ou au cloud lorsque la formation, le déploiement ou la production à grande échelle sont nécessaires.


Questions fréquentes

Quelle est la différence entre NVIDIA DGX Spark et DGX Station pour exécuter des modèles de langage en local ?
DGX Spark vise le développement et les tests avec des modèles volumineux en mode compact et « plug-and-play », tandis que DGX Station s’adresse à des volumes extrêmes et à une utilisation proche du laboratoire ou de l’entreprise.

Que signifie que DGX Spark utilise NVFP4 et pourquoi cela importe-t-il pour l’IA bureautique ?
NVFP4 est un format utilisé par NVIDIA pour réduire la taille effective des modèles et augmenter la performance. La société indique pouvoir compresser jusqu’à 70 %, facilitant ainsi l’exécution de modèles plus grands avec une mémoire moindre.

DGX Station peut-il remplacer un cluster GPU pour la recherche avancée ?
Ce n’est pas son objectif principal, mais il permet d’accélérer la boucle d’itération et de validation locale avec du matériel comparable à celui du centre de données, avant de passer à une infrastructure plus grande.

Quels cas d’usage réels permettent à DGX Spark et DGX Station de répondre aux besoins des entreprises souhaitant conserver leurs données et leur code en interne ?
Ils se concentrent sur l’inférence locale, les flux RAG, l’ajustement fin, la création d’agents et le développement d’outils (comme des assistants CUDA), tout en maintenant la propriété des données et la sécurité, avec possibilité de montée en charge ultérieure dans le cloud.

Source : blogs.nvidia

le dernier