Dell Technologies a profité de la GTC 2026 pour renforcer sa Dell AI Data Platform avec NVIDIA, une solution visant à résoudre l’un des problèmes récurrents de l’IA en entreprise : il ne s’agit pas tant d’un déficit en GPU, mais plutôt de la difficulté à transformer des données dispersées, lentes ou mal gouvernées en un carburant utile pour les agents et applications d’IA. La société a présenté de nouvelles capacités d’orchestration des données, une accélération via des GPU NVIDIA, ainsi que plusieurs nouveautés en stockage conçues pour des charges de travail d’agentic AI.
Le message de Dell est clair : de nombreuses entreprises ne peinent pas à déployer des pilotes d’IA par manque de modèles, mais parce que leurs données restent cloisonnées, dépourvues de structuration, de contexte métier ou de gouvernance suffisante. Dans ce contexte, l’IA perd l’accès à une information fiable, essentielle pour raisonner, récupérer du contexte ou agir. Dell affirme que sa plateforme, intégrée dans le cadre de la Dell AI Factory avec NVIDIA, vise précisément à lever ces blocages.
Le constructeur accompagne cette annonce avec des chiffres ambitieux : jusqu’à 12 fois plus rapide pour l’indexation vectorielle, 3 fois plus rapide pour le traitement des données et 19 fois moins de temps jusqu’au premier jeton comparé aux approches traditionnelles. Il faut toutefois interpréter ces chiffres avec prudence, car ils proviennent d’évaluations internes et de comparatifs réalisés par Dell lui-même. Néanmoins, ils donnent une idée claire du focus mis : la couche de données, et non seulement celle de l’inférence ou de l’entraînement.
Un moteur d’orchestration pour transformer les données d’entreprise en datasets prêts pour l’IA
La composante stratégique de cette annonce est le nouveau Dell Data Orchestration Engine, décrit comme un moteur no-code/low-code capable d’automatiser l’intégralité du cycle des données pour l’IA : découverte, étiquetage, enrichissement et transformation de données structurées, non structurées ou multimodales en ensembles de données gouvernés et prêts pour la production. Dell précise que cette couche est alimentée par la technologie issue de sa récente acquisition de Dataloop, une indication claire de la direction vers laquelle souhaite évoluer sa plateforme.
Ce moteur ne se limite pas à l’automatisation des pipelines. Dell explique qu’il combine apprentissage actif et flux humain dans la boucle, afin d’améliorer la qualité des datasets et la précision des modèles tout en maintenant un contrôle de gouvernance. De plus, le Data Orchestration Engine Marketplace offrira le déploiement de workflows prêts pour la production, appuyés par une bibliothèque sélectionnée de NVIDIA NIM microservices, NVIDIA AI Blueprints et plus de 200 modèles, applications et modèles préconfigurés.
Par ailleurs, Dell a confirmé son support pour le dernier NVIDIA AI-Q blueprint, une architecture ouverte proposée par NVIDIA pour créer des agents d’entreprise capables de percevoir, raisonner et agir sur le savoir organisationnel. Lors de l’annonce officielle de NVIDIA, AI-Q apparaît comme une pièce maîtresse de sa nouvelle stratégie logicielle pour agents, mêlant modèles de pointe pour l’orchestration et modèles ouverts Nemotron pour la recherche et la réduction de coûts. Dell souhaite intégrer cette logique à sa propre couche de préparation et récupération des données.
SQL conversationnel et accélération CUDA-X dans la plateforme de données
Une autre innovation notable est l’introduction d’un AI Assistant dans le Dell Data Analytics Engine, conçu pour offrir une interface conversationnelle directement intégrée à l’analyse SQL. L’objectif étant de permettre aux utilisateurs métier de consulter, visualiser et collaborer sur des produits de données gouvernés, sans dépendre exclusivement de compétences pointues en SQL. Dell présente cette solution comme un moyen de démocratiser l’accès aux données et d’accélérer la prise de décision, notamment dans les organisations souhaitant déployer des agents capables d’interroger des données structurées de façon plus autonome.
Une accélération de la couche de données elle-même est également prévue grâce à des GPU NVIDIA RTX PRO Blackwell Server Edition et des bibliothèques CUDA-X comme cuDF pour le traitement structuré et cuVS pour l’indexation et la recherche vectorielle. Selon Dell, cette combinaison pourrait offrir jusqu’à 3 fois plus de performance en requêtes SQL et jusqu’à 12 fois la vitesse d’indexation vectorielle, bien qu’il convient là aussi de relativiser ces chiffres, issus d’analyses internes et de comparatifs commandés par le fournisseur.
Stockage pour éviter que les GPU restent inactifs
Une autre composante majeure de cette annonce concerne le stockage, sans doute parce qu’il constitue aujourd’hui un verrou majeur à l’échelle de l’IA d’entreprise. Dell explique qu’en phase de mise en production, beaucoup d’architectures traditionnelles laissent des GPU coûteux sous-utilisés, car le stockage ne fournit pas des données à la vitesse ou avec la constance requise. La réponse de Dell passe par deux solutions : Dell Lightning File System et Dell Exascale Storage.
Dell Lightning File System se présente comme un système de fichiers parallèle dédié à l’entraînement et à l’inférence d’IA, capable d’atteindre jusqu’à 150 GB/s par rack. Selon Dell, ses performances sont très supérieures à celles de certains concurrents dans le stockage flash scale-out. Son objectif : éliminer les goulets d’étranglement et maintenir une alimentation continue de données aux GPU. De son côté, Dell Exascale Storage aspire à devenir une plateforme 3-en-1 pour l’IA et le HPC, combinant ressources de stockage d’objets, de fichiers et de systèmes parallèles sur une infrastructure commune basée sur des serveurs Dell PowerEdge.
Un élément particulièrement marquant est la prise en charge annoncée du NVIDIA CMX context memory storage platform et l’utilisation de KV Cache en stockage partagé sur PowerScale, ObjectScale et Lightning File System. La logique est d’extraire une partie du KV cache de la mémoire GPU vers un stockage partagé haute vitesse, pour améliorer la gestion des contextes longs dans les agents et modèles, sans saturer la mémoire GPU lors d’interactions prolongées ou de systèmes nécessitant un historique étendu. Dell considère cette fonction comme essentielle pour les charges de travail d’agentic AI et de raisonnement avec contexte étendu.
Ce concept se connecte directement à une autre innovation de NVIDIA présentée lors de la GTC 2026 : BlueField-4 STX, une architecture de référence pour le stockage accéléré, ciblant précisément le raisonnement contextuel long dans l’agentic AI. NVIDIA affirme que STX peut offrir jusqu’à 5 fois plus de performance par jeton, 4 fois plus d’efficacité énergétique et 2 fois la vitesse d’ingestion comparé à des systèmes classiques. Dell figure parmi les partenaires qui construiront sur cette architecture modulaire.
Dell veut offrir une solution complète, pas seulement des composants isolés
Au-delà de la technologie en elle-même, cette annonce s’inscrit dans une démarche plus globale. Le 16 mars dernier, Dell revendiquait que sa Dell AI Factory avec NVIDIA comptait déjà plus de 4 000 clients, et que certains premiers adopteurs avaient enregistré jusqu’à 2,6 fois le ROI dès la première année, selon une étude commandée à Enterprise Strategy Group. Bien que ces chiffres soient promotionnels et basés sur des scénarios modélisés, ils illustrent la stratégie commerciale de Dell : proposer une route intégrée de bout en bout pour passer de pilotes d’IA à des déploiements à l’échelle de l’entreprise.
Dans cette vision, la plateforme de données occupe aujourd’hui une place centrale. Dell ne souhaite plus seulement concurrencer avec des serveurs et du stockage isolés, mais proposer une couche unifiant l’orchestration des données, l’accélération pour la préparation et la recherche, le stockage parallèle, et le support aux architectures d’agents. Autrement dit, Dell essaie de vendre l’idée que la réussite de l’IA d’entreprise dépend autant de la capacité à exploiter rapidement ses données internes que de la qualité ou de la taille des modèles.
Questions fréquentes
Qu’a annoncé exactement Dell ?
Dell a dévoilé de nouvelles fonctionnalités pour sa Dell AI Data Platform avec NVIDIA, notamment un moteur d’orchestration de données, une accélération via GPU NVIDIA intégrée à la couche de données, ainsi que de nouvelles propositions de stockage optimisées pour les charges de travail d’IA et d’agents.
Qu’est-ce que le Dell Data Orchestration Engine ?
Il s’agit d’un moteur no-code/low-code qui automatise l’ensemble du cycle des données pour l’IA : découverte, étiquetage, enrichissement et transformation de données structurées, non structurées ou multimodales en datasets gouvernés et prêts à l’emploi en IA. Dell précise que cette technologie repose sur son récent rachat de Dataloop.
Quelle est la relation avec NVIDIA AI-Q ?
Dell a annoncé son support pour NVIDIA AI-Q, une architecture ouverte de NVIDIA pour développer des agents d’entreprise capables de percevoir, raisonner et agir sur le savoir organisationnel. Dell envisage d’intégrer ses moteurs de données et stockage dans ces architectures agents.
Pourquoi parle-t-on de KV cache dans le stockage partagé ?
Parce que pour les charges longues et agentic AI, le KV cache peut occuper beaucoup de mémoire GPU. Dell propose de décharger partie de ce contexte vers un stockage partagé haute vitesse, afin d’optimiser la performance sans limiter la capacité du GPU à traiter des interactions prolongées ou stocker une grande quantité d’historique. Ceci est crucial pour les charges de travail d’agentic AI et de raisonnement avec contexte étendu.
Quand ces nouveautés seront-elles disponibles ?
Dell prévoit que le Data Orchestration Engine et son marketplace seront accessibles au premier trimestre 2026. L’AI Assistant, dans l’outillage analytique, sera déployé dans la première moitié de 2026. Lightning File System sera disponible dès avril 2026, tandis que Exascale Storage devrait arriver au début de la seconde moitié de cette année.
Source : dell