Dell renforce sa « usine d’IA » pour les entreprises : plus d’automatisation, plus de performance et un tournant clair vers le sur site

Dell annonce des milliers de licenciements massifs dans ses divisions de vente et de marketing.

Dell Technologies a profité du cadre de la conférence sur le supercalcul SC25, à Saint-Louis, pour annoncer une série de nouveautés avec un message très clair pour les entreprises : si elles veulent prendre l’intelligence artificielle au sérieux, elles peuvent le faire sur leur propre infrastructure, sans dépendre uniquement du cloud public.

La société, qui se revendique comme le principal fournisseur mondial d’infrastructures pour l’IA, étend sa stratégie Dell AI Factory avec de nouveaux outils d’automatisation, des serveurs optimisés pour les modèles génératifs, du stockage adapté aux approches RAG et à la recherche vectorielle, des réseaux à haute capacité et des solutions de refroidissement liquide pour des charges de travail IA à très haute densité.

Parallèlement, Dell met en avant une donnée qui permet de mieux comprendre la direction du marché :

  • 85 % des entreprises prévoient de déplacer leurs charges IA en local dans les 24 prochains mois,
  • et 77 % cherchent un fournisseur unique d’infrastructure pour couvrir l’ensemble de leur parcours en IA, de A à Z.

L’objectif de la société est de devenir ce partenaire unique, en combinant hardware, software et services dans une architecture unique.


Dell Automation Platform : moins de friction pour passer de la phase de test à la mise en production réelle

Au cœur de cette annonce, l’extension de Dell Automation Platform dans le cadre de la Dell AI Factory. L’idée est d’offrir aux organisations une approche plus automatisée et répétable pour déployer des cas d’usage en IA, évitant que les projets artisanaux restent éternellement en phase pilote.

La plateforme :

  • déploie des solutions validées et optimisées sur une infrastructure sécurisée,
  • permet d’obtenir des résultats cohérents et mesurables,
  • et réduit la nécessité de « deviner » les configurations ou architectures.

Parmi les nouveautés, on trouve :

  • Une intégration avec des outils tels qu’un assistant de code IA (en collaboration avec Tabnine) et une plateforme d’IA agissante (avec Cohere North), déjà automatisés pour accélérer la mise en production.
  • Des services professionnels Dell proposant des pilotes clés en main pour des cas d’usage interactifs, utilisant de véritables données clients et avec des indicateurs clairs de retour sur investissement (KPIs), avant d’envisager des investissements à grande échelle.

Le message central est que l’IA en entreprise ne peut pas reposer uniquement sur des développeurs passionnés ou des tests isolés : elle nécessite méthode, automatisation et gouvernance.


Le rôle des données : PowerScale et ObjectScale optimisés pour l’IA et la recherche RAG

Dell insiste sur le fait que, dans la course à l’IA, la différence ne se fera pas uniquement sur les modèles, mais aussi sur la gestion de la masse de données qui les alimente. C’est pourquoi elle améliore son AI Data Platform en renforçant ses moteurs de stockage : PowerScale et ObjectScale.

Parmi les avancées annoncées :

  • PowerScale en tant que logiciel autonome : bientôt disponible comme licence logiciel sur des serveurs PowerEdge certifiés, comme le PowerEdge R7725xd. Cela offre plus de flexibilité aux fournisseurs cloud et aux organisations souhaitant combiner le stockage haute performance de Dell avec la dernière génération de serveurs et réseaux.
  • Support pNFS avec Flexible File Layout sur PowerScale : pour une communication plus efficace entre le serveur de métadonnées et le client, en distribuant en parallèle les données via plusieurs nœuds et voies d’E/S. L’objectif est d’obtenir une scalabilité linéaire accrue et de meilleures performances pour les workflows exigeants en IA.
  • ObjectScale AI-Optimized Search : intégrant deux API spécialisées, S3 Tables et S3 Vector, conçues pour donner un accès ultra-rapide à des données complexes directement sur ObjectScale. Cela vise des cas d’usage comme l’analyse avancée, l’inférence et la récupération augmentée par génération (RAG), où la recherche et l’accès rapide à de gros volumes de données sont essentiels.

En pratique, ces améliorations visent à permettre aux entreprises de découvrir, stocker et interroger des données pour l’IA sans devoir créer des architectures ad hoc pour chaque projet.


PowerEdge dans l’ère des modèles gigantesques

En matière de calcul, Dell renforce sa gamme PowerEdge pour couvrir aussi bien l’entraînement que l’inférence distribuée, ainsi que les scénarios à forte demande.

PowerEdge XE9785 et XE9785L

Ces systèmes sont conçus pour l’IA de nouvelle génération et les charges HPC très intensives :

  • Ils intègrent des processeurs AMD EPYC bi-socket.
  • Disposent de huit GPU AMD Instinct MI355X par nœud, orientés IA générative et entraînement de grands modèles.
  • Ils reposent sur des cartes réseau AMD Pensando Pollara 400 AI NIC et sur le réseau Dell PowerSwitch AI, conçus pour réduire les goulets d’étranglement dans le trafic entre nœuds.

Ils seront disponibles en versions avec refroidissement par air ou en variante avec refroidissement liquide direct, destiné aux centres de données recherchant une densité accrue avec une consommation énergétique plus faible.

PowerEdge R770AP

De son côté, le PowerEdge R770AP est une plateforme à usage plus généraliste, mais optimisée pour :

  • le traitement parallèle intensif,
  • une faible latence mémoire,
  • et un nombre élevé de lignes PCIe pour accélérer réseaux et stockage.

Ce serveur s’appuie sur des processeurs Intel Xeon 6 P-core de la série 6900, avec de nombreux cœurs, de gros caches et la prise en charge de l’expansion de mémoire via CXL, un point clé pour les applications où la mémoire constitue le principal goulot d’étranglement.


Réseaux 102,4 Tb/s pour des usines IA avec plus de 100 000 accélérateurs

La grande IA ne se limite pas aux GPU : elle requiert également des réseaux capables de faire transiter d’énormes volumes de données à faible latence. Dell étoffe cette composante avec de nouveaux switches PowerSwitch Z9964F-ON et Z9964FL-ON, basés sur le chipset Broadcom Tomahawk-6.

Ces équipements proposent :

  • 102,4 térabits par seconde de capacité de commutation,
  • le support pour des déploiements d’IA et HPC à grande échelle,
  • la capacité pour des environnements avec plus de 100 000 accélérateurs connectés.

Ils s’intègrent avec :

  • Enterprise SONiC Distribution de Dell Technologies, qui favorise l’utilisation de réseaux ouverts,
  • et avec SmartFabric Manager, qui automatise le déploiement, la gestion du cycle de vie et la supervision de ces réseaux complexes.

De plus, SmartFabric Manager s’aligne désormais avec la Dell AI Factory, proposant des « blueprints » automatisés pour déployer des infrastructures IA avec moins d’intervention manuelle, et permettant une gestion à l’échelle du rack via OpenManage Enterprise, offrant une visibilité complète sur l’infrastructure GPU.


Gestion unifiée, refroidissement liquide et racks capables de supporter 150 kW

Dell renforce également l’aspect moins visible mais essentiel dans l’IA d’entreprise : la gestion de l’infrastructure physique et la refroidissement.

Les nouveautés dans le cadre du programme Integrated Rack Scalable Solutions (IRSS) comprennent :

  • OpenManage Enterprise (OME) pour une gestion unifiée du serveur à l’échelle du rack. Il peut automatiser jusqu’à 25 000 dispositifs depuis une seule console, incluant la surveillance de l’énergie, du refroidissement et la détection de fuites.
  • Integrated Rack Controller (IRC), une solution matérielle et logicielle pour une détection rapide et automatisée des fuites dans le rack, intégrée à OME et iDRAC pour minimiser risques et interruptions.
  • Dell PowerCool RCDU, une unité compacte de distribution de fluide réfrigérant, capable de supporter jusqu’à 150 kW par rack. Compatible avec des racks de 19 pouces (IR5000) et 21 pouces selon la norme OCP (IR7000).

Associée à Dell ProSupport, cette infrastructure de refroidissement et gestion vise à maintenir un fonctionnement optimal, réduisant les imprévus dans des opérations où chaque minute d’indisponibilité coûte cher.


L’IA aussi sur ordinateur : support étendu pour Ryzen AI

Au-delà des centres de données, Dell affirme que l’IA au poste de travail fait partie intégrante de son offre. La société étend le support de son écosystème de PC IA à plus de silicium, en incluant notamment les processeurs AMD Ryzen AI.

Le but est que développeurs et équipes techniques puissent créer et exécuter des applications IA directement sur leurs appareils, avec des flux de travail optimisés et une dépendance réduite au cloud pour certains cas, ce qui devient de plus en plus pertinent pour des raisons de coût, de confidentialité et de latence.


Un message au marché : moins d’expériences, plus d’IA en production

Avec cette série d’annonces, Dell cherche à se positionner comme fournisseur global pour les entreprises souhaitant passer de l’expérimentation à la production en IA. Automatisation, stockage RAG prêt à l’emploi, réseaux massifs, serveurs optimisés, gestion à l’échelle du rack et PC dotés d’IA intégrée forment une même narration :

l’IA n’est plus un pilote isolé, mais une usine à cas d’usage nécessitant une base technologique solide, orchestrée et, de plus en plus, intégrée directement dans l’infrastructure de l’entreprise.


Questions fréquentes

Qu’est-ce que précisément la Dell AI Factory ?
C’est la stratégie de Dell pour offrir un écosystème complet d’infrastructures, logiciels et services dédié à l’IA d’entreprise. Elle inclut des serveurs PowerEdge optimisés pour l’IA, des solutions de stockage comme PowerScale et ObjectScale, des réseaux PowerSwitch, des outils d’automatisation tels que Dell Automation Platform, ainsi que des services pour aider les entreprises à concevoir, tester et déployer leurs cas d’usage en IA de façon répétée.

Pourquoi Dell insiste autant sur la mise en place d’une IA en local ?
Selon ses données, une majorité importante d’entreprises prévoient de migrer leurs charges IA vers leurs propres infrastructures dans les deux prochaines années. Les raisons incluent la souveraineté des données et la conformité réglementaire, mais aussi la nécessité de contrôler coûts, latence et sécurité. Dell propose des solutions pour construire des « usines d’IA » directement dans le centre de données de l’entreprise.

Quel rôle jouent les nouvelles solutions réseau et refroidissement dans cette stratégie ?
Les modèles d’IA avancés requièrent des milliers de GPU interconnectés et consomment beaucoup d’énergie. Il faut donc disposer de réseaux capables de transférer des données à plus de 100 Tb/s et de systèmes de refroidissement efficaces, comme la refroidissement liquide, supportant des densités jusqu’à 150 kW par rack. Sans ces éléments, la montée en charge de l’IA à l’échelle entreprise devient techniquement ou économiquement impossible.

Faut-il redessiner toute l’infrastructure pour adopter ces solutions IA ?
Pas forcément. L’approche de Dell repose sur une architecture modulaire et évolutive. De nombreuses nouveautés, comme le logiciel PowerScale sur serveurs PowerEdge ou les nouveaux contrôleurs de racks et outils de gestion, peuvent être intégrés progressivement. L’idée est que les organisations commencent avec des pilotes bien ciblés, puis, si le projet prouve sa valeur, elles puissent passer en production en réutilisant la même base technologique et les mêmes processus d’automatisation.

Source : dell

le dernier