Dell Technologies a annoncé de nouvelles capacités dans sa AI Data Platform, le pilier de gestion des données de l’écosystème Dell AI Factory, visant à aider les entreprises à transformer données dispersées et en silos en résultats d’IA mesurables. La solution met en avant un point critique pour toute organisation souhaitant passer de pilotes à la production : séparer stockage et traitement pour éliminer les goulets d’étranglement, garder le contrôle en local et offrir une flexibilité pour des charges allant de l’entraînement et l’affinement à RAG et inférence.
Cette mise à jour repose sur quatre axes principaux : moteurs de stockage, moteurs de données, cyberrésilience intégrée et services de gestion des données. Elle est intégrée au design de référence de NVIDIA AI Data Platform et s’appuie sur des partenariats avec Elastic et Starburst pour accélérer la recherche sémantique, l’analytique fédérée et les workflows agentic.
Pourquoi c’est important : du « marais de données » aux résultats IA en temps réel
La popularité grandissante de l’IA d’entreprise rencontre un obstacle tenace : les données sont dispersées, en multiformats et en changement. Avec sa AI Data Platform, Dell propose une plateforme ouverte et modulaire pour fusionner les flux de données, activer les métadonnées et éviter les blocages entre les couches de stockage, de calcul et de modèles. L’objectif est que toute l’équipe de données puisse connecter en toute fluidité les dépôts NAS et S3, orchestrer une ingestion incrémentielle pour maintenir à jour index et vector stores et déployer des recherches hybrides (mot-clé + vecteur), accélérées par GPU, avec un contrôle local en on-prem.
Moteurs de stockage : PowerScale et ObjectScale, adaptés à l’IA
Les moteurs de stockage de la plateforme —Dell PowerScale (NAS) et Dell ObjectScale (objet S3 native)— constituent la base pour placer les données là où elles sont les plus performantes et les transférer sans friction entre étapes (préparation, entraînement, inférence, RAG).
PowerScale : NAS parallèle pour l’IA, certifié à l’échelle GPU
- PowerScale offre un accès multiprotocole et une performance parallèle pour l’entraînement, l’affinement, l’inférence et les pipelines RAG.
- Avec la nouvelle intégration de NVIDIA GB200 et GB300 NVL72 ainsi que des mises à jour logicielles, Dell garantit un rendement constant, une gestion simplifiée à grande échelle et une compatibilité avec les applications et stacks courants en IA.
- Le PowerScale F710 a obtenu la certification NVIDIA Cloud Partner (NCP) pour un stockage haute performance. Selon Dell, le système peut évoluer à plus de 16 000 GPU avec jusqu’à 5 fois moins d’espace rack, 88 % de réduction des switches réseau, et jusqu’à 72 % d’économie d’énergie par rapport à des alternatives comparables.
ObjectScale : stockage objet S3 avec accélération et améliorations pour petites objets
- ObjectScale — que Dell présente comme “la plateforme d’objet la plus performante” — offre S3 natif scalable pour charges massives d’IA. Il peut être déployé comme appliance ou en nouvelle option software-defined sur des serveurs Dell PowerEdge, étant jusqu’à 8 fois plus rapide que la génération précédente d’objets tout-flash, d’après la société.
- Principaux progrès :
- S3 sur RDMA (en aperçu technologique en décembre 2025) : jusqu’à 230 % de débit, 80 % de réduction de latence et 98 % moins d’utilisation CPU comparé à S3 traditionnel.
- Amélioration de performance/efficacité pour petits objets (10 KB) : jusqu’à 19 % de débit supplémentaire et jusqu’à 18 % de latence en moins dans les déploiements à grande échelle.
- Intégration plus poussée avec AWS S3 et compression au niveau du bucket pour réduire la surface des données et les coûts de stockage/mouvement associés.
La combinaison PowerScale + ObjectScale permet aux équipes de données choisir la couche adaptée pour chaque étape —par exemple, NAS pour scratch d’entraînement et objet pour data lakes et dépôts RAG— tout en maintenant des politiques communes de sécurité, télémétrie et cyberrésilience.
Moteurs de données : recherche sémantique avec Elastic et analytique fédérée avec Starburst
Au-delà du stockage, Dell enrichit ses moteurs de données : outils spécialisés pour organiser, interroger et activer l’information dans les flux IA.
Data Search Engine (avec Elastic) : RAG et recherche sémantique à grande échelle
Développé avec Elastic, le Data Search Engine vise les RAG, la recherche sémantique et les pipelines génératifs. Il s’intègre à MetadataIQ pour découvrir et cataloguer les données, et peut interroger des milliards de fichiers dans PowerScale et ObjectScale via métadonnées granulaire. Parmi ses avantages opérationnels :
- Ingestion incrémentielle : ne rajoute que les fichiers mis à jour, économisant ressources et maintenant la base de vecteurs à jour.
- SDK connus : les développeurs peuvent créer des applications RAG dans LangChain ou autres frameworks.
- Gouvernance : construit une recherche dans des dépôts contrôlés par la DSI, avec audit et sécurité intégrés.
Data Analytics Engine (avec Starburst) : de la fédération à la “requête agentique”
Associé à Starburst, Dell renforce son Data Analytics Engine pour permettre des requêtes sans déplacement de données à travers tableurs, bases de données, entrepôts cloud et lacs de données. Les nouveautés incluent :
- Layer agentic : couche utilisant LLM pour documenter, extraire des insights et embeder l’IA dans les requêtes SQL en quelques secondes.
- Accès unifié à vector stores (Iceberg, Data Search Engine, PostgreSQL + PGVector, etc.) pour simplifier RAG et recherche depuis une porte d’entrée unique.
- Monitoring et gouvernance de modèles IA d’envergure : suivi, audit et contrôle d’utilisation des modèles IA.
- MCP Server pour Data Analytics Engine (février 2026) : permet le développement de multi-agents et d’applications IA sur la couche analytique.
Recherche hybride accélérée par GPU avec NVIDIA cuVS
La plateforme intègrera l’intégration avec NVIDIA cuVS pour recherche vectorielle et hybride (mot-clé + vecteur) accélérée par GPU. La promesse : performance de nouvelle génération pour la recherche vectorielle, avec un déploiement clé en main : un environnement prêt à l’emploi pour l’IT, on-prem et à l’échelle, en tirant parti de l’infrastructure sécurisée de Dell. Pour ceux qui jonglent aujourd’hui avec plusieurs piles de recherche et de vectorisation, l’enjeu est de consolider et standardiser tout en conservant la performance.
Ce que disent les acteurs : de « données fragmentées » à « plateformes prêtes pour la production »
Chez Dell, Arthur Lewis (ISG) situe cette annonce dans un contexte transversal : simplifier la complexité des données, unifier les pipelines et fournir des données IA-ready à l’échelle, avec des cas concrets allant du diagnostic en temps réel dans la santé aux maintenance prédictive dans l’industrie. Chez NVIDIA, Justin Boitano insiste sur le fait que la plateforme pousse une nouvelle génération de stockage intelligent capable de interpréter la signification des données. Elastic et Starburst mettent en avant, respectivement, l’accent mis sur la recherche/découverte et la fédération analytique, deux goulets d’étranglement classiques lorsque les données sont dispersées partout. Enfin, chez Maya HTT, l’accent est mis sur la télémétrie en temps réel et l’efficacité avec l’IA dans des secteurs comme le spatial ou le maritime, en s’appuyant sur PowerScale et l’infrastructure NVIDIA.
Disponibilité : calendrier par étapes
- PowerScale avec intégration NVIDIA GB200 / GB300 NVL72 et validation NCP : disponible.
- ObjectScale S3 sur RDMA : aperçu technologique prévu pour décembre 2025.
- Mises à jour du logiciel ObjectScale : attendues en décembre 2025.
- Agentic Layer pour Data Analytics Engine : prévue pour février 2026.
- MCP Server pour Data Analytics Engine : également pour février 2026.
- Data Search Engine sur la plateforme Dell AI Data Platform : prévu pour le 1er semestre 2026.
- Intégration NVIDIA cuVS : également prévu pour le 1er semestre 2026.
Questions clés pour le CIO : cinq interrogations avant déploiement
- Où sont mes données et quels SLA chaque cas d’usage exige-t-il ?
Cartographier les dépôts NAS, S3, bases relationnelles / NoSQL, tableurs, entrepôts et lacs pour décider de la location (PowerScale vs. ObjectScale) et du mouvement (quoi, quand, comment). - Comment garder les index et les vector DB à jour sans surcharger le calcul ?
Activer une ingestion incrémentielle et utiliser des métadonnées (via MetadataIQ ou catalogues) pour ne recalcultaser que ce qui est nécessaire en RAG et recherche. - Quel stack de recherche et de vectorisation privilégier ?
Évaluer la recherche hybride avec cuVS et l’unification de l’accès aux vecteurs (Iceberg, PGVector, etc.) pour réduire la fragmentation. - Quels sont les guards nécessaires (sécurité et conformité) ?
Définir périmètres, chiffrement, audit et rétention ; valoriser la cyberrésilience intégrée et la supervision des modèles pour éviter une utilisation non gouvernée de l’IA. - Comment mesurer le ROI du RAG et de la recherche sémantique ?
Les KPI comme la latence, le taux de réussite, le coût par requête, les heures économisées en support ou la précision par rapport à la vérité terrain aideront à orienter les investissements.
Analyse critique : promesses de performance et maturité opérationnelle
Les chiffres avancés — 230 % de débit supplémentaire et 80 % de latence en moins dans S3 sur RDMA, jusqu’à 8× plus rapide avec ObjectScale en mode software-defined, ou encore le passage du PowerScale F710 à plus de 16 000 GPU avec une réduction drastique de l’espace, du réseau et de l’énergie — dressent un tableau très séduisant pour des charges IA avides de données. La clé sera de maintenir ce niveau de performance au quotidien : gouvernance, SLA pour l’ingestion et l’indexation, coût global de la vectorisation à grande échelle, et visibilité de bout en bout pour éviter que le « lac » ne devienne un marécage.
Simultanément, l’accent mis sur les workflows agentic via SQL et la recherche sémantique contrôlée indique que Dell cherche à rapprocher les capacités d’IA des équipes de données, et pas seulement des MLOps. Si le calendrier est respecté et si les intégrations Elastic / Starburst / cuVS sont prêtes pour la production, la plateforme pourra réduire de plusieurs mois des déploiements qui aujourd’hui restent bloqués par le « collage » entre différents outils.
Foire aux questions
En quoi Dell AI Data Platform se distingue-t-elle d’un data lake traditionnel ?
Ce n’est pas uniquement du stockage : elle fusionne moteurs de données (recherche sémantique, analytique fédérée, gouvernance des modèles) avec moteurs de stockage (NAS parallèle et objet S3 natif) et ciberrésilience. Elle sépare également explicitement données et traitements pour éviter les goulets d’étranglement dans l’entraînement, le RAG et l’inférence.
Quels bénéfices pour le S3 sur RDMA dans ObjectScale pour l’IA ?
Preview technologique dès décembre 2025, qui promet plus de performance et moins de latence/CPU lors de la transmission de S3 sur RDMA. En cas d’inférences intensives, ré-indexation ou grands pipelines RAG, cela peut réduire les coûts et accélérer les délais de livraison.
Comment NVIDIA cuVS s’intègre-t-il dans la plateforme ?
Il permet la recherche vectorielle et hybride (mot-clé + vecteur) accélérée par GPU en environnement on-prem. Déployé comme solution clé en main, il favorise la standardisation et le gain de performance tout en conservant le contrôle.
Quand seront disponibles ces nouveautés et quelles conditions pour leur adoption ?
L’intégration PowerScale + GB200/GB300 certifiée par NCP est déjà disponible. ObjectScale S3 sur RDMA et ses mises à jour seront disponibles en décembre 2025. L’Agentic Layer et MCP Server pour Data Analytics Engine sont attendus en février 2026. Le Data Search Engine et cuVS devraient suivre dans le premier semestre 2026. Leur adoption nécessite d’harmoniser la gestion réseau, sécurité, métadonnées et pipelines existants.
Source : dell