La compétition pour faire évoluer les centres de données destinés à l’Intelligence Artificielle ne se résume plus seulement à qui dispose du plus grand nombre de GPUs, mais à qui parvient à faire travailler ces derniers « à plein régime » sans attendre la réponse du réseau. À ce stade, le goulet d’étranglement ne réside plus dans la puissance de calcul, mais dans le mouvement des données : latences, congestion, pertes de paquets, et une gestion opérationnelle de plus en plus complexe à mesure que les déploiements s’étendent au-delà des hyperescalaires.
Lors de Cisco Live EMEA à Amsterdam, Cisco a dévoilé une nouvelle série de produits conçus pour cette « seconde étape » de l’IA dans le centre de données : le Silicon One G300, une puce de commutation à 102,4 Tbps, les nouveaux systèmes Cisco N9000 et Cisco 8000 basés sur ce silicium, des optiques haute densité pour les liens de prochaine génération, ainsi qu’une évolution de leur couche opérationnelle avec Nexus One. Cet ensemble vise à simplifier le déploiement et la gestion des fabrics pour l’IA, que ce soit en local ou dans le cloud.
Le réseau devient une composante du “compute”
Le message de Cisco s’inscrit dans une idée reprise par presque tous les grands acteurs de l’infrastructure : pour l’entraînement et l’inférence à grande échelle, le réseau ne doit plus être un simple accessoire, mais un élément essentiel de la performance du cluster. Si les données n’arrivent pas à temps, la GPU ne produit pas, et si la GPU ne produit pas, la facture horaire s’envole.
Cisco quantifie cette tension : sa solution de “Intelligent Collective Networking”, intégrée dans le Silicon One G300, promet une amélioration de 33 % de l’utilisation du réseau et une réduction de 28 % du temps de traitement par rapport à des scénarios simulant des routages non optimisés. En termes d’affaires, cela signifie plus de travaux réalisés avec la même infrastructure d’accélérateurs, et donc plus de productivité par GPU-heure.
Qu’est-ce que le Silicon One G300 et quelles sont ses nouveautés ?
Le Silicon One G300 se présente comme un silicium de commutation destiné aux clusters massifs et distribués, avec trois priorités : performance, sécurité et fiabilité. Cisco met en avant plusieurs éléments pour adresser les problématiques classiques du trafic IA (bursty, sensible aux micro-coupures et très pénalisé par les pertes) :
- Buffer partagé de grande capacité pour absorber les pics sans drops qui pourraient « bloquer » les jobs.
- Équilibrage basé sur les routes pour améliorer la distribution du trafic et mieux réagir en cas de défaillance d’un lien.
- Telemetry proactive pour que l’exploitation ne se fasse pas à l’aveugle quand le fabric s’étend.
- Programmabilité pour faire évoluer les fonctionnalités après déploiement et protéger les investissements.
- Sécurité intégrée en hardware permettant d’appliquer des contrôles « à vitesse ligne » sans sacrifier le débit.
Dans l’ensemble, cette approche vise à répondre à un enjeu critique : alors que l’IA devient « démocratisée » et qu’elle s’installe dans des néo-clouds, des clouds souverains, des opérateurs et des entreprises, le réseau doit évoluer sans nécessiter une armée de spécialistes difficile à recruter.
Nouveaux N9000 et 8000 : du silicium au système (et au rack)
Cisco accompagne cette annonce avec de nouveaux systèmes N9000 et 8000, aussi bien fixes que modulaires, basés sur le Silicon One G300 et conçus pour répondre aux exigences thermiques et électriques de ces environnements. Parmi les innovations phares : la possibilité d’un dissipateur entièrement liquide, que Cisco associe à une amélioration de l’efficacité énergétique « proche de 70 % », ainsi qu’à une densité de bande passante permettant de concentrer ce qui nécessitait auparavant plusieurs équipements dans un seul système.
Une lecture pragmatique : lorsqu’un cluster commence à mesurer sa puissance en mégawatts et à parler de racks denses, la refroidissement ne relève plus du simple « facility » mais devient partie intégrante de la conception du réseau.
Optiques pour la génération 1,6T et économies d’énergie
La connectivité évolue également. Cisco a annoncé deux nouvelles familles d’optique :
- Optiques OSFP 1,6T destinées aux liens switch-NIC de 1,6T et à la connectivité switch-serveur avec des options 1,6T/800G/400G/200G.
- Optiques LPO (Linear Pluggable Optics) 800G, qui promettent une réduction de 50 % de la consommation par rapport aux optiques retimées. Cisco souligne aussi qu’en combinant LPO et ces nouveaux systèmes, il serait possible de diminuer jusqu’à 30 % la consommation totale d’un switch, tout en améliorant fiabilité et durabilité.
Dans un marché où chaque watt compte — en raison des coûts et des contraintes électriques — ces chiffres ne sont pas du marketing, mais de véritables leviers pour réduire les coûts opérationnels.
Nexus One et “AgenticOps” : moins de friction pour les équipes IT
Au-delà du matériel, Cisco porte une vision : on ne peut pas faire évoluer l’IA si chaque extension du fabric reste un projet artisanal. C’est pourquoi il présente Nexus One comme une plateforme de gestion unifiée, connectant silicium, systèmes, optiques, logiciels et automatisation dans une expérience unique.
Parmi les nouveautés, Cisco mentionne :
- Unified Fabric pour déployer et adapter les réseaux même dans plusieurs sites, avec automatisation via API.
- Observabilité « job-aware » : croiser la télémétrie réseau avec le comportement des charges IA.
- Intégration native avec Splunk prévue pour mars, permettant d’analyser la télémétrie « là où se trouve la donnée » sans la déplacer hors du contexte.
Enfin, Cisco lance AI Canvas comme interface pour « AgenticOps » dans les réseaux de centres de données : un outil de troubleshooting guidé, avec des échanges « human-in-the-loop » pour transformer des problèmes complexes en actions concrètes.
Une stratégie tournée vers l’avenir au-delà de l’hyperescalara
Cisco insiste sur le fait que cette nouvelle génération s’adresse à un spectre élargi de clients : hyperescalaires, néo-clouds, clouds souverains, opérateurs et entreprises. Pour étoffer son discours, la société dévoile un ensemble d’alliances et de validations avec l’écosystème (AMD, Intel, NVIDIA, NetApp, DDN, VAST, etc.), soulignant que dans l’IA, la valeur ne réside pas dans une pièce isolée, mais dans l’ensemble : réseau, calcul, stockage et opérations.
Cisco annonce que le Silicon One G300, les systèmes basés sur ce silicium et les nouvelles optiques seront disponibles cette année, marquant le début d’une étape où le « backend networking » pour l’IA devient un produit stratégique à part entière.
Questions fréquentes
Que signifie qu’un chip de commutation possède une capacité de 102,4 Tbps ?
Cela indique que le silicium peut gérer un flux massif de trafic au sein du switch, permettant un plus grand nombre de ports haute vitesse et une densité de bande passante accrue pour les fabrics d’IA à grande échelle.
Pourquoi la refroidissement liquide commence-t-il à apparaître aussi dans les équipements réseau ?
Parce que la densité et la consommation augmentent avec les liens de 800G et 1,6T. La refroidissement liquide permet un meilleur rendement soutenu et peut contribuer à améliorer l’efficacité énergétique dans des environnements très exigeants.
Qu’est-ce que le LPO 800G et pourquoi est-ce important pour les centres de données IA ?
Le LPO (Linear Pluggable Optics) réduit la complexité électronique dans le module en étant moins énergivore que les optiques retimées. Sur des réseaux comptant des milliers de liens, cet avantage se traduit par moins de chaleur, de consommation électrique et une capacité opérationnelle accrue.
Que représente une gestion unifiée comme Nexus One dans un fabric d’IA ?
Elle simplifie le déploiement et l’exploitation, offre une visibilité de bout en bout (du réseau à la GPU) et facilite l’automatisation et le dépannage, même dans des environnements multi-sites ou soumis à des souverainetés de données strictes.
source : newsroom.cisco