NetApp a annoncé une gamme de produits renforçant sa plateforme de données d’entreprise pour l’intelligence artificielle, avec pour objectif de passer de projets pilotes à des applications actives en production. Cette nouveauté se déploie sur deux axes principaux : NetApp AFX, un système all-flash à architecture déchargée basé sur ONTAP, et NetApp AI Data Engine (AIDE), un service unifié qui connecte, gouverne et accélère les données pour l’IA via une unique plateforme de contrôle. Ces solutions visent à accélérer le RAG (Recherche, Analyse, Génération) et l’inférence dans des environnements hybrides et multicloud, accessibles en achat direct ou par abonnement Keystone STaaS.
AFX : stockage all-flash déchargé pour des “usines d’IA”
NetApp AFX dissocie performance et capacité pour permettre à chaque dimension de s’étendre indépendamment. Basé sur ONTAP, ce système offre un multi-tenancy sécurisé, une cybersécurité résiliente et a été conçu pour une évolutivité linéaire jusqu’à 128 nœuds, avec un bande passante en TB/s et une capacité atteignant l’exaoctet. Certifié pour le stockage dans des architectures NVIDIA DGX SuperPOD, il maintient les fonctionnalités classiques de gestion de données d’ONTAP, déjà utilisées par de nombreux clients pour des opérations critiques.
En complément, NetApp introduit les nœuds DX50 comme nœuds de calcul de données, permettant un moteur global de métadonnées pour cataloguer en temps réel le patrimoine de données d’entreprise et exploiter la puissance de la computation accélérée. Cette couche de métabase permet une visibilité immédiate, réduit les copies dispersées et sert de fondement pour des recherches sémantiques et des pipelines IA nécessitant des accès rapides.
AI Data Engine : transformer les données, pas la fournir à l’IA
NetApp AIDE est un service de gestion de données pour l’IA, couvrant tout le cycle depuis l’ingestion et la préparation jusqu’au déploiement d’applications génératives. Il offre une vue d’ensemble mise à jour de l’environnement ONTAP du client, détecte les changements, synchronise sans doublons et met en œuvre des barrières de sécurité et de confidentialité tout au long du cycle de vie des données. Il s’intègre à la plateforme NVIDIA AI Data Platform, incluant la suite NVIDIA AI Enterprise et les microservices NIM, pour la vectorisation et la récupération, complétés par une compression avancée, une recherche sémantique et des flux de travail» pilotés par des politiques.
AIDE sera exécuté nativement sur le cluster AFX utilisant les DX50, rapprochant la computation des données pour réduire latences et coûts de transfert. NetApp annonce également un soutien futur pour RTX PRO Servers avec le RTX PRO 6000 Blackwell Server Edition, élargissant les options d’accélération pour des cas d’usage demandant plus de souplesse dans la couche computationnelle.
ANF s’approche des services Azure sans déplacer les données
En complément d’AFX et d’AIDE, l’entreprise dévoile deux améliorations stratégiques pour Azure NetApp Files (ANF) :
- Object REST API (version publique préliminaire) : permet d’accéder aux données NFS/SMB d’ANF sous forme d’objets directement, sans devoir copier vers un object store séparé. Ainsi, les mêmes jeux de données peuvent être connectés à Microsoft Fabric, Azure OpenAI, Azure Databricks, Azure Synapse, Azure AI Search, Azure Machine Learning et autres services, évitant duplications et accélérant la valorisation.
- Namespace global unifié dans Azure avec FlexCache : facilite la visibilité et l’édition de données stockées sur ANF alors qu’elles résident dans d’autres systèmes ONTAP — en datacenter ou en multicloud — en ne transférant que les blocs demandés. De plus, SnapMirror permet des copie continues, une recovery automatique en cas de sinistre et un équilibrage de charge entre environnements, idéal pour des scénarios hybrides exigeants (comme l’EDA – Event-Driven Architecture) ou des politiques strictes de résidence et de latence.
Pourquoi cela compte : de pilotes à production « agentic »
Cette offre conjointe répond à trois freins principaux à l’adoption de l’IA en entreprise :
- Fondation de données flexible : en déchargeant, les organisations augmentent leur IOPS et bande passante pour des phases intensives (vectorisation, recherche sémantique, pré-renseignement pour LLM) sans surdimensionner la capacité ou croissent en capacité sans payer pour un surplus de performance.
- Gouvernance et efficacité : AIDE transforme des fonctions auparavant artisanales — catalogage, détection de changements, synchronisation, protection des données — en services gérés avec des politiques cohérentes côté on-prem et cloud, réduisant à la fois la latence et le risque d’erreurs liés à la manipulation manuelle.
- Ponts natifs avec Azure : ANF expose des datasets de fichiers à des services de données et IA sans migration, tandis qu’avec FlexCache et SnapMirror, la mobilité des charges, la gestion du DR et l’utilisation conjointe en centres privés et cloud public sont simplifiées, favorisant des architectures hybrides efficaces et résilientes.
Globalement, l’objectif est que « la donnée soit toujours prête pour l’IA » : localisable, vectorisée, gouvernée et accessible depuis tout cloud avec une performance et une sécurité cohérentes.
Modèles de consommation et disponibilité
Les nouveaux produits seront disponibles en modalité classique ou via NetApp Keystone STaaS, un modèle d’abonnement à consommation sur demande. La société proposera des démonstrations et sessions lors de NetApp INSIGHT 2025 (Las Vegas, du 14 au 16 octobre), afin d’illustrer les flux complets de RAG et inférence avec accélération NVIDIA.
Ce que doivent évaluer les équipes techniques
- Architecture et scalabilité : le réglage précis entre nombre de nœuds, bande passante effective et capacité déterminera le coût total en production, notamment pour des pipelines avec des pics de vectorisation ou un serving simultané.
- Gouvernance et guardrails : la capacité à transposer les politiques entre on-prem et cloud sera essentielle pour les secteurs réglementés ; le fait qu’AIDE accompagne le traitement des données avec des règles facilite l’audit et la gestion des risques.
- Coûts liés au transfert de données : l’Object REST API d’ANF réduit les copies, mais chaque modèle d’accès avec Azure aura ses profils de consommation ; il est judicieux d’évaluer performance et coûts de bout en bout avant de procéder à une montée en charge.
- Intégrations futures : le support annoncé pour RTX PRO Servers élargit les options d’accélération ; le choix du hardware devra s’aligner sur la nature des charges, qu’il s’agisse d’entraînement léger, de fine-tuning, d’inférence longue ou d’agents multimodaux.
En résumé, NetApp souhaite s’imposer comme la plateforme de données native pour l’IA : AFX comme socle all-flash déchargé, et AIDE comme moteur intégré pour la gestion de données IA, avec des connexions directes à Azure pour minimiser les transferts et doublons. L’idée est de permettre aux entreprises d’indexer, rechercher et servir à grande échelle de l’information non structurée — tout en garantissant gouvernance et résilience — pour accélérer la transition des projets pilotes vers des applications « agentic » à fort impact business.
source : netapp