Alors que la croissance de l’intelligence artificielle à grande échelle continue de s’accélérer, les centres de données commencent à consommer une quantité d’électricité qui met à rude épreuve les réseaux conventionnels. L’intégration de modèles massifs de langage et de charges synchronisées d’entraînement intensif provoque des pics de demande énergétiques qui oscillent brutalement, créant des résonances électriques, des tensions sur les transformateurs et une baisse d’efficacité du système réseau.
Face à cette problématique, NVIDIA a lancé une solution innovante intégrée à sa nouvelle gamme de racks GB300 NVL72, reposant sur des alimentations équipées de stockage capacitif et d’un algorithme intelligent de régulation de charge. Cette innovation permet de réduire jusqu’à 30 % la demande électrique de pointe détectée par le réseau tout en stabilisant les fluctuations dues à la synchronisation des milliers de GPUs utilisés lors des entraînements.
Contrairement aux charges classiques, dont le profil énergétique est asynchrone et varient selon l’activité, les entraînements d’IA impliquent des centaines, voire des milliers de GPUs en synchronie parfaite, alternant entre phases d’inactivité et d’intense utilisation. Ce processus entraîne des courbes de consommation en oscillation rapide, difficiles à gérer pour le réseau électrique qui met parfois entre une et 90 minutes pour réagir à une augmentation soudaine de la demande. Pendant ce délai, des surcharges ou chutes de courant peuvent survenir, affectant non seulement le centre de données mais aussi d’autres installations.
La nouvelle conception du GB300 NVL72 intervient avec une alimentation dotée de trois éléments clés : un contrôle de puissance avec r rampes progressives lors du démarrage, un stockage d’énergie par capacitors haute capacité intégrés dans chaque unité alimentant une réserve d’environ 65 joules, et un mode de dissipation active pour atténuer brusquement la demande en cas de fin subite d’un entraînement. Ces mécanismes combinés permettent d’obtenir un profil de consommation strictement plat et stable, évitant ainsi les pics violents.
Les résultats concrets sont probants : lors de tests avec des charges réelles, une réduction d’environ 30 % du pic de demande électrique a été observée, sans compromettre la performance des clusters. De plus, la stabilité accrue réduit la sollicitation des transformateurs, permettant d’envisager un dimensionnement plus précis de l’infrastructure électrique, avec moins de racks, moins d’énergie consommée et une empreinte carbone amoindrie.
À l’heure où la demande en puissance des centres de données IA explose, ces avancées techniques jouent un rôle crucial dans la transition vers des infrastructures plus durables. En intégrant du stockage d’énergie distribuée à l’échelle des racks, NVIDIA et LITEON Technology participent à une réduction de la pression sur la production électrique tout en augmentant la résilience globale.
Plus qu’une simple alimentation, cette innovation devient une véritable stratégie pour harmoniser les besoins avancés de l’intelligence artificielle avec les capacités du système électrique, soulignant une responsabilité écologique essentielle dans le futur numérique. En optimisant la gestion énergétique des racks, cette technologie transforme ces équipements en acteurs plus intelligents et collaboratifs, une étape essentielle pour un avenir où IA et durabilité se rejoignent.