Giga Computing lance de nouveaux serveurs GIGABYTE pour l’IA avec refroidissement liquide et par air, alimentés par la plateforme NVIDIA HGX B200

Giga Computing lance de nouveaux serveurs GIGABYTE pour l'IA avec refroidissement liquide et par air, alimentés par la plateforme NVIDIA HGX B200

Giga Computing, une filiale de GIGABYTE spécialisée dans les solutions d’entreprise haute performance, a annoncé le lancement de quatre nouveaux serveurs optimisés pour les charges de travail en intelligence artificielle. Ces modèles reposent tous sur la plateforme NVIDIA HGX B200, combinant une architecture avancée avec des options de refroidissement liquide et par air, renforçant ainsi la position de Giga Computing dans la course à l’efficacité énergétique des centres de données.

Ces nouveaux serveurs intègrent la plateforme NVIDIA HGX B200, basée sur les GPU Blackwell, capables d’effectuer des inférences en temps réel jusqu’à 15 fois plus rapidement sur des modèles comptant des milliards de paramètres. Cette plateforme représente une étape cruciale pour les infrastructures souhaitant faire évoluer leurs solutions de IA générative et de grands modèles de langage (LLMs) tout en maintenant une performance thermique et électrique optimale.

Giga Computing a également présenté deux modèles dotés d’un système de refroidissement liquide direct (DLC) en format 4U, conçus pour maximiser la densité de calcul en IA. Le premier, le G4L3-SD1-LAX5, supporte les processeurs Intel® Xeon®, tandis que le second, le G4L3-ZD1-LAX5, est compatible avec AMD EPYC™. Ces serveurs disposent de compartiments séparés pour la CPU et le GPU, optimisant la gestion thermique et réduisant la consommation électrique ainsi que les coûts de refroidissement, idéaux pour la formation à grande échelle en IA.

Par ailleurs, pour ceux privilégiant la refroidissement par air avec une grande compatibilité x86, Giga Computing a lancé le G894-AD1-AAX5, compatible avec la série Intel® Xeon® 6900 (dont le Xeon® 6962P), ainsi que le G894-SD1-AAX5 pour les processeurs Xeon® 6700 et 6500, y compris le Xeon® 6776P. Ces modèles, conçus pour fonctionner avec la plateforme HGX B200, offrent une architecture facilitant leur intégration dans les centres de données existants.

L’ensemble de ces serveurs sont intégrés dans GIGAPOD, une solution de supercomputing modulaire en rack conçue spécifiquement pour entraîner des modèles d’IA générative contenant des milliards de paramètres. GIGAPOD repose sur des GPU haute performance, des réseaux à haute vitesse et une architecture évolutive, permettant une performance accrue par watt, un design thermique optimisé et des options de refroidissement avancées. L’intégration de ces nouveaux serveurs garantit une adaptation aux exigences changeantes des charges de travail AI, tout en privilégiant la durabilité et la montée en puissance.

Cette annonce renforce le rôle stratégique de NVIDIA en tant que moteur de l’infrastructure mondiale en IA, notamment à une époque où des intervenants majeurs comme Microsoft, Meta et Amazon accélèrent leurs investissements dans des modèles fondamentaux. La démarche de GIGABYTE en matière de technologies de refroidissement innovantes constitue également un avantage concurrentiel en termes de durabilité énergétique.

Pour les investisseurs, cette sortie met en lumière la croissance d’un marché très spécialisé de serveurs conçus pour l’IA, où l’efficacité thermique et la modularité sont essentielles. Par ailleurs, des solutions intégrées comme GIGAPOD apparaissent comme des options solides pour les opérateurs de centres de données cherchant à évoluer tout en maintenant leur efficacité énergétique.

le dernier