NVIDIA renforce son engagement dans l’infrastructure IA avec BlueField-4 STX, une architecture de stockage conçue pour les agents et les contextes longs

NVIDIA renforce son engagement dans l'infrastructure IA avec BlueField-4 STX, une architecture de stockage conçue pour les agents et les contextes longs

NVIDIA a profité du GTC 2026 pour présenter BlueField-4 STX, une nouvelle architecture de référence modulaire qui vise à résoudre l’un des goulets d’étranglement invisibles de l’IA moderne : le stockage et l’accès au contexte. Cette proposition s’adresse aux entreprises, aux fournisseurs cloud et aux opérateurs d’infrastructure IA qui ont besoin d’alimenter des systèmes capables de gérer de longs contextes, plusieurs outils et sessions persistantes, ce qui devient de plus en plus courant dans le phénomène appelé IA agentique.

L’idée de fond est claire : ne plus se contenter d’ajouter plus de GPU. Selon NVIDIA, les centres de données traditionnels offrent de la capacité, mais pas la rapidité de réponse nécessaire pour que les agents IA accèdent aux données et à la mémoire contextuelle en temps réel, sans pénaliser l’inférence. BlueField-4 STX cherche à combler cette lacune avec une pile de stockage accéléré qui maintient les données « proches » des GPU et réduit la friction entre stockage, réseau et calcul.

Le déploiement à l’échelle rack de cette architecture est lancé sous le nom de NVIDIA CMX, une plateforme de context memory storage qui ajoute une couche de mémoire contextuelle haute performance pour une inférence scalable et des systèmes agentiques. NVIDIA affirme que cette approche peut offrir jusqu’à cinq fois plus de tokens par seconde que le stockage traditionnel, ainsi que une efficacité énergétique quatre fois supérieure et une injection de données deux fois plus rapide pour les charges de travail d’entreprise en IA.

D’un point de vue technique, STX repose sur un nouveau processeur BlueField-4 optimisé pour le stockage, combinant la CPU Vera avec la ConnectX-9 SuperNIC, ainsi que Spectrum-X Ethernet, DOCA et NVIDIA AI Enterprise. L’architecture s’intègre également dans la plateforme Vera Rubin, présentée lors du GTC 2026 comme le nouveau socle des futures « usines d’IA » de NVIDIA. Dans cet écosystème, BlueField-4 STX n’apparaît pas comme une pièce isolée, mais comme l’un des racks spécialisés qui complètent la vision de NVIDIA pour la formation, l’inférence agentique, les réseaux et le stockage.

Cette démarche s’inscrit dans une évolution évidente du marché. Si ces dernières années la discussion tournait principalement autour des GPU, de la mémoire HBM et des réseaux à haute vitesse, NVIDIA veut désormais souligner que la mémoire contextuelle et le stockage pour l’inférence sont tout aussi stratégiques lorsque les modèles passent de la simple réponse à des questions à l’exécution de tâches complexes, la conservation de l’état et la réutilisation massive de l’information. Cette lecture paraît logique compte tenu du discours de la société et du design de Vera Rubin, qui répartit l’infrastructure IA en racks spécialisés en GPU, CPU, réseau et stockage.

NVIDIA a également insisté sur le fait qu’il ne s’agit pas uniquement d’une feuille de route, mais d’un écosystème déjà en mouvement. Parmi les premiers adopteurs de STX pour le stockage de mémoire contextuelle figurent des noms tels que CoreWeave, Crusoe, IREN, Lambda, Mistral AI, Nebius, Oracle Cloud Infrastructure et Vultr. Parallèlement, des fournisseurs de stockage comme Cloudian, DDN, Dell Technologies, Hitachi Vantara, HPE, IBM, MinIO, NetApp, Nutanix, VAST Data et WEKA travaillent sur cette architecture, tandis que des fabricants comme AIC, Supermicro et QCT développent des systèmes basés sur STX.

Le fait que cette liste inclut aussi bien des hyperscalers IA que des spécialistes du stockage n’est pas anodin. STX vise à fonctionner comme une architecture de référence, plutôt que comme un produit clé en main. En d’autres termes, NVIDIA ne vend pas seulement une armoire, mais fournit une configuration de design permettant à ses partenaires de monter des plateformes modulaires compatibles avec le type d’inférence et d’analyse que demanderont les agents industriels. C’est une approche similaire à celle suivie par la société dans d’autres couches de leur stack : définir la direction technique, établir la connectivité entre composants, et laisser l’industrie construire autour. Cette vision est renforcée par la description de STX comme une architecture de référence et par l’importance que NVIDIA accorde à ses partenaires MGX et à la chaîne d’approvisionnement globale dans Vera Rubin.

Pour le marché, cette annonce envoie également un message important : la bataille de l’IA ne se joue plus uniquement sur le modèle lui-même, mais sur toute l’infrastructure des données qui l’entoure. Si les agents doivent traiter de longs historiques, des documents, des outils, de la mémoire opérationnelle et fonctionner en cycles continus d’inférence, alors la performance du stockage n’est plus une question secondaire. NVIDIA veut désormais s’imposer à cet endroit, en étendant son influence de l’accélération du calcul vers l’architecture complète des centres de données IA.

Les premiers systèmes basés sur BlueField-4 STX seront disponibles via des partenaires au second semestre 2026, leur adoption réelle débutant probablement dans les mois à venir. Mais le message stratégique est clair : pour NVIDIA, l’avenir de l’IA agentique ne dépend pas seulement de GPU plus performants, mais d’une refonte totale de la relation entre calcul, réseau, mémoire et stockage.

le dernier