L’infrastructure de Intelligence Artificielle entre dans une nouvelle phase : la bataille ne se joue plus uniquement sur la puissance des GPU, mais sur le chemin des données. Dans ce contexte, VAST Data et NVIDIA ont annoncé une intégration qui cible directement le point de friction le plus courant dans les déploiements d’entreprise : la complexité de réunir stockage, bases de données, analytique et services d’IA comme s’il s’agissait de pièces détachées. L’alliance se concrétise par VAST CNode-X, une nouvelle proposition visant à intégrer le VAST AI Operating System (AI OS) directement dans les serveurs équipés de GPU NVIDIA, afin d’en faire une couche “de première classe” au sein de clusters optimisés.
Le concept est à la fois simple et ambitieux : si l’entraînement, l’inférence et les systèmes du type RAG dépendent du déplacement des données, alors la performance réelle se décide dans le “chemin des données”. VAST affirme qu’avec l’AI OS opérationnel sur des serveurs alimentés par NVIDIA, les organisations peuvent réduire les goulets d’étranglement et faire fonctionner l’ingestion, la récupération, l’analytique et l’inférence comme un système unifié et cohérent. Plutôt que d’assembler un puzzle avec des outils séparés — stockage d’un côté, base de données de l’autre, pile IA à part —, cette proposition cherche à concentrer ces capacités dans une stack intégrée, orientée vers la production.
CNode-X : quand le serveur cesse d’être “simplement de calcul”
VAST présente CNode-X comme une nouvelle génération de Systèmes Certifiés NVIDIA, conçue pour transformer la façon dont l’infrastructure IA est conçue et opérée. L’approche va au-delà de “connecter” un stockage rapide à un cluster GPU : la nouveauté réside dans le fait que l’AI OS est disponible directement sur le hardware, apportant des services de stockage haute performance aux clusters accélérés tout en intégrant le système d’exploitation de données dans l’environnement même.
L’objectif déclaré est d’optimiser un ensemble d’usages essentiels pour toute entreprise sérieuse en IA : pipeline d’IA, analytique à haute performance, recherche vectorielle, RAG et charges agentifiées. En pratique, cela signifie réduire le travail de “bricolage” habituel lors du passage d’un pilote à une solution durable : configurations disparates, consoles séparées, identités dupliquées et plusieurs équipes tentant que le stack fonctionne comme un seul produit cohérent.
Renen Hallak, fondateur et CEO de VAST Data, décrit cette évolution comme l’atteinte d’un objectif poursuivi durant une décennie : disposer d’un système capable de “raffiner les données en intelligence et en action” de façon continue. Selon lui, accélérer le calcul et le chemin des données au sein de l’AI OS offre une voie plus directe pour amener en production la récupération, l’analytique et les workflows agentifiés, sans que le projet ne reste au stade de l’intégration.
Jensen Huang et la “mémoire persistante” pour des agents opérant sur plusieurs jours
De son côté, NVIDIA inscrit cette initiative dans sa stratégie de “réinvention” des piliers du calcul pour l’IA. Jensen Huang, fondateur et CEO, souligne que CNode-X serait accéléré par CUDA “à chaque couche” pour doter les agents IA de mémoire persistante, leur permettant d’aborder des problèmes complexes durant plusieurs jours ou semaines et, à terme, sur des années, sans “oublier” le contexte. Ce message est important car il traduit une tendance récurrente dans l’industrie : les agents ont besoin non seulement de modèles puissants, mais aussi d’un système de gestion des données capable de maintenir l’état, l’historique et de récupérer l’information à grande échelle.
Par ailleurs, Cisco rejoint la discussion en tant que partenaire dans la commercialisation. Jeetu Patel, président et CPO de Cisco, indique que les entreprises ont besoin d’une voie fiable pour opérationnaliser l’IA à grande échelle. Selon lui, la collaboration avec VAST et NVIDIA permettra de lancer sur le marché une plateforme accélérée de bout en bout basée sur l’infrastructure Cisco, facilitant la transition de l’expérimentation à des systèmes “toujours actifs” avec plus de rapidité et de confiance.
Les OEM : disponibilité via Cisco, HPE et Supermicro
VAST précise que les serveurs CNode-X seront disponibles auprès de fabricants tels que Cisco et Supermicro, et l’industrie ajoute que d’autres OEM, comme HPE, proposeront également ces solutions. Ce point est essentiel : dans l’infrastructure, l’adoption s’accélère lorsque le produit est accessible “au catalogue” et commercialisé via les canaux habituels, avec un support et des configurations certifiées.
Un contexte qui s’accorde : le “réseau IA” ne ressemble plus à celui d’Internet
Cette annonce est accompagnée d’un constat récent de Backblaze sur le trafic cloud : le comportement du réseau dans le cadre des workloads IA diffère de celui du cloud traditionnel : “moins de nombreux-à-nombreux et davantage de relations soutenues à débit élevé entre systèmes spécialisés”. Dans ce contexte, Backblaze suggère que stockage, calcul et réseau tendent à s’aligner encore plus, sous la pression de la nécessité de maintenir les GPU occupés et des pipelines fluides.
Ce constat rejoint l’argument commercial de CNode-X : quand le goulet d’étranglement se situe au niveau des données, la valeur ne réside pas seulement dans l’ajout de GPU, mais dans la réduction de la latence opérationnelle, la simplification du stack et l’évitement de faire de l’infrastructure un projet d’intégration interminable.
Polaris : la couche pour traiter l’IA distribuée comme “une seule flotte”
La collaboration entre VAST et NVIDIA a également été annoncée conjointement avec le lancement de Polaris, une nouvelle offre multi-cloud et hybride de VAST. L’objectif de Polaris est de transformer les déploiements distribués en une plateforme unifiée à l’échelle d’une flotte, pour gérer l’infrastructure et les données d’IA où que soient exécutés training et inference. Le message est cohérent avec la tendance du marché : l’IA ne réside pas dans un seul centre de données ni dans une seule cloud, et de plus en plus d’organisations souhaitent faire fonctionner une plateforme de contrôle unique englobant différents environnements sans multiplier les outils.
Dans l’ensemble, CNode-X et Polaris illustrent une ambition commune : faire en sorte que l’infrastructure IA cesse d’être une collection de pièces pour devenir un système d’exploitation de données et d’exécution, prêt pour la production.
Questions fréquentes (FAQ)
Qu’est-ce que VAST CNode-X et à quoi sert-il dans un cluster de GPU NVIDIA ?
VAST CNode-X est une proposition de serveur alimenté par GPU intégrant directement le VAST AI OS pour offrir des services de données haute performance et simplifier la gestion des pipelines IA, RAG et recherche vectorielle dans des clusters optimisés.
Pourquoi VAST insiste-t-il sur “l’unification” du stockage, des bases de données et de la pile IA ?
Parce que dans de nombreux déploiements d’entreprise, le principal frein n’est pas le modèle lui-même, mais l’intégration : outils séparés, multiples consoles, flux de données avec latence. L’unification vise à réduire la complexité et à accélérer la transition du pilote à la production.
Qu’est-ce que la “mémoire persistante pour les agents IA” signifie dans ce contexte ?
Cela fait référence à la capacité de maintenir l’état et le contexte opérationnel des agents sur de longues périodes, à l’aide d’un système de données et de récupération optimisé, permettant aux agents d’aborder des tâches complexes sans perte d’informations importantes.
Que apporte Polaris dans une stratégie d’IA hybride et multi-cloud ?
Polaris se présente comme un plan de contrôle permettant de gérer l’infrastructure et les données réparties (dans les centres de données et dans le cloud) comme une seule “flotte”, facilitant des opérations cohérentes lorsque l’entraînement et l’inférence sont déployés dans des environnements différents.