
NVIDIA réinvente l’inférence en IA : grands clusters, silicium photonique et réseaux ultra-efficaces pour un avenir dominé par des modèles de raisonnement.
NVIDIA Redéfinit l’Infrastructure des Centres de Données pour l’IA Générative NVIDIA se positionne comme un acteur clé de la transition vers des infrastructures centralisées de haute performance, répondant au besoin croissant de modèles génératifs avancés et de charges d’inférence. Sa technologie d’optique co-intégrée redéfinit les normes d’efficacité énergétique dans les centres de données. Traditionnellement, la création de clusters d’IA reposait sur l’assemblage d’un maximum de GPU, leur connexion via des réseaux ultra-rapides et la fourniture d’énormes volumes de données. Cependant, l’essor de l’IA générative, qui passe de l’entraînement à un déploiement massif pour l’inférence, modifie ces principes de conception. Kevin Deierling, vice-président senior des réseaux chez NVIDIA, déclare à DataCenterDynamics que l’époque de l’inférence "légère" est révolue. L’Inclusion de Ressources