ASUS se lance dans l’IA liquide avec Vera Rubin et des agents autonomes locaux

ASUS se lance dans l'IA liquide avec Vera Rubin et des agents autonomes locaux

ASUS a profité du GTC 2026 pour présenter l’une de ses initiatives les plus audacieuses dans le domaine de l’infrastructure de l’intelligence artificielle : une gamme complète de systèmes allant de fermes d’IA à l’échelle de racks jusqu’aux stations de bureau, à l’edge et aux solutions enterprise, le tout articulé autour de la plateforme NVIDIA Vera Rubin. Le message de la société taïwanaise est clair : la prochaine vague d’IA ne se limitera pas aux grands centres de données, mais s’étendra à une combinaison de haute performance, de refroidissement avancé, de flexibilité de déploiement et de contrôle local des données.

La nouveauté la plus visible est leur infrastructure entièrement refroidie par liquide, avec laquelle ASUS souhaite répondre à une réalité de plus en plus manifeste : les nouveaux clusters d’IA consomment autant d’énergie et génèrent autant de chaleur que la refroidissement classique devient souvent insuffisant dans plusieurs scénarios. La société assure que sa proposition vise à réduire à la fois le PUE et le TCO, bien que, comme c’est souvent le cas lors de ces annonces, il faudra attendre pour voir comment ces promesses se traduisent concrètement dans des déploiements réels et comparables entre fabricants.

Une usine d’IA conçue pour des charges massives

Le point central de cette annonce est le ASUS AI POD, basé sur le NVIDIA Vera Rubin NVL72, en particulier le système XA VR721-E3. ASUS décrit cette plateforme comme étant 100 % refroidie par liquide, conçue pour des charges de travail d’IA à grande échelle. Selon la société, ce système peut fonctionner avec un TDP allant jusqu’à 227 kW en mode MaxP ou 187 kW en mode MaxQ. Il cible les modèles de très grande taille et les environnements où la densité de calculation devient un facteur critique. ASUS affirme également que la plateforme peut offrir jusqu’à 10 fois plus de performance par watt, une promesse liée au saut générationnel apporté par la plateforme Rubin.

Pour accompagner cette orientation, ASUS a confirmé des collaborations avec des partenaires tels que Vertiv et Schneider Electric, dans l’objectif d’offrir une couche complète d’alimentation et de refroidissement adaptée à divers scénarios de déploiement. Rien de trivial dans cette démarche. Dans l’IA à grande échelle, le serveur n’est plus simplement une boîte avec des GPUs ; il devient partie intégrante d’un système plus vaste où l’alimentation, la refroidissement, la redondance et la conception du centre de données deviennent aussi cruciaux que la puissance de calcul.

En complément de l’AI POD, ASUS a également dévoilé de nouveaux serveurs reposant sur le NVIDIA HGX Rubin NVL8. La stratégie ici est plus flexible : d’un côté, le XA NR1I-E12L, un système hybride combinant refroidissement liquide direct sur le processeur pour la plateforme HGX Rubin NVL8 et refroidissement par air pour deux processeurs Intel Xeon 6 ; de l’autre, le XA NR1I-E12LR, conçu comme un système intégralement refroidi par liquide. L’objectif est d’offrir une transition plus progressive pour les clients encore peu préparés à migrer vers un refroidissement liquide total sur tout le rack.

Du centre de données au bureau et à l’edge

ASUS ne limite pas son discours à la supercalculateure. Une autre partie importante de l’annonce concerne l’intégration de capacités avancées d’IA au poste de travail du développeur et à l’edge industriel. À cet effet, ils ont présenté le ASUS ExpertCenter Pro ET900N G3, un système de bureau construit sur NVIDIA Grace Blackwell Ultra, ainsi que le ASUS Ascent GX10, plus compact, mais aussi destiné au développement local et à l’expérimentation. Dans les deux cas, l’idée est de fournir suffisamment de mémoire et de performance pour travailler avec de grands modèles et des agents autonomes, sans dépendre exclusivement du cloud.

ASUS relie ces équipements à NVIDIA NemoClaw, la solution open source présentée cette semaine par NVIDIA pour faciliter l’exécution d’assistants toujours actifs, basée sur OpenClaw. NemoClaw installe OpenShell, un runtime également open source, qui ajoute un environnement isolé, un contrôle des permissions et des mesures de protection de la vie privée pour exécuter des agents autonomes avec plus de sécurité. Cette couche est particulièrement pertinente, car la problématique des agents ne concerne plus seulement leur intelligence, mais aussi la manière dont ils ont accès aux outils, aux données et aux environnements d’exécution, sans exposer l’entreprise à des risques inutiles.

En ce qui concerne l’edge, ASUS a présenté le PE3000N, un moteur d’inférence robustifié basé sur NVIDIA Jetson Thor qui, selon la société, atteint 2 070 TFLOPS. Il est conçu pour la fusion de capteurs, la navigation autonome ainsi que des charges physiques d’IA. La démarche est claire : construire une chaîne complète allant de la formation et de l’ajustement des modèles jusqu’à leur déploiement en système edge, où la latence, la robustesse physique et l’autonomie priment sur le simple marketing.

ASUS voit la plateforme comme un écosystème complet, pas seulement du hardware

Le troisième volet de l’annonce concerne le logiciel et la stratégie commerciale. ASUS renforce son message autour de ASUS AI Hub, une plateforme en local qu’elle avait déjà présentée fin 2025 comme une solution prête à déployer des assistants d’entreprise, des flux RAG et de l’intelligence documentaire, avec un contrôle total des données. Selon la société, cette plateforme est déjà utilisée en interne par plus de 10 000 employés, avec des pics dépassant 600 requêtes par heure, une précision OCR supérieure à 80 % et une amélioration de l’efficacité de plus de 30 %. Ce sont des métriques internes, utiles pour illustrer le cas d’usage, mais qui ne constituent pas une validation indépendante sur le marché.

De plus, ASUS annonce un réseau de partenaires en stockage certifiés par NVIDIA, tels que IBM, DDN, WEKA et VAST Data, visant à compléter cette offre pour les environnements IA et HPC où le stockage constitue souvent un goulot d’étranglement. ASUS évoque des solutions en blocs, objets, JBOD et systèmes logiciels, ce qui montre qu’elle aspire à se positionner non seulement comme un constructeur de serveurs, mais aussi comme un intégrateur d’une architecture IA complète.

En résumé, ASUS s’inscrit dans la même logique que d’autres grands fournisseurs présents lors du GTC 2026 : proposer des usines d’IA en tant que concept global. La différence réside dans l’ambition de couvrir presque tous les échelons, du rack avec Rubin à la station de bureau avec Grace Blackwell, en passant par les agents locaux avec OpenShell et NemoClaw. Cette approche pourrait séduire les entreprises recherchant une référence technologique unique, de la phase de laboratoire jusqu’à la production, mais elle implique également qu’ASUS devra faire ses preuves en matière de déploiements homogènes, de support solide et d’intégration concrète entre des composants très divers.

Ce que cet annonce met cependant clairement en évidence, c’est que l’IA d’entreprise en 2026 ne se résume plus à un simple serveur avec des accélérateurs. Elle se présente comme un écosystème où la puissance, le refroidissement, le logiciel, le stockage, la souveraineté des données et la sécurité des agents font partie intégrante d’un même ensemble. ASUS souhaite participer activement à cette conversation.

Questions fréquentes

Que présente ASUS lors du GTC 2026 pour l’IA ?
ASUS dévoile une nouvelle gamme d’infrastructures IA basée sur NVIDIA Vera Rubin, comprenant des systèmes rack refroidis par liquide, des serveurs hybrides et entièrement liquides, ainsi que des stations de bureau pour le développement local et des solutions edge et enterprise.

Qu’est-ce que l’ASUS AI POD avec NVIDIA Vera Rubin NVL72 ?
C’est la proposition principale d’ASUS pour des fermes d’IA à grande échelle. Elle s’appuie sur la plateforme NVIDIA Vera Rubin NVL72 et est conçue pour des charges massives d’entraînement et d’inférence, avec refroidissement liquide intégral.

A quoi servent NVIDIA NemoClaw et OpenShell dans les équipements ASUS ?
Ils permettent d’exécuter des agents autonomes de façon plus sécurisée en local. NemoClaw installe OpenShell, qui offre isolation, contrôle des permissions et protection de la vie privée pour des assistants toujours actifs et autres agents basés sur OpenClaw.

ASUS AI Hub est-il destiné aux entreprises souhaitant éviter la cloud ?
Oui. ASUS le présente comme une solution sur site, dédiée aux assistants d’entreprise, aux flux RAG et à l’intelligence documentaire, garantissant une souveraineté accrue des données et un déploiement local dans la structure.

source : press.asus

le dernier