NVIDIA dépasse les attentes avec sa puce B200 pour l’IA : Puissance et défis à relever

NVIDIA dépasse les attentes avec sa puce B200 pour l'IA : Puissance et défis à relever

NVIDIA a récemment dévoilé sa puce B200 pour les applications d’intelligence artificielle (IA), une pièce de technologie qui promet de transformer le paysage du calcul avancé. Annoncée en mars de cette année, la B200 se présente comme une véritable bête technologique avec des caractéristiques qui dépassent les attentes des plus optimistes dans le secteur.

La puce B200 possède des spécifications impressionnantes, qui incluent 208 milliards de transistors, l’architecture Blackwell de dernière génération, et une performance maximale de 20 petaFLOPS en opérations FP4 lorsqu’elle est utilisée avec un système de refroidissement liquide. De plus, elle supporte une mémoire virtuelle pouvant aller jusqu’à 192 GB de VRAM et atteint une largeur de bande de 8 TB/s, établissant de nouvelles normes dans la capacité de traitement pour les tâches d’IA.

Malgré ces spécifications remarquables, le Département du Commerce des États-Unis, sous la direction de Gina Raimondo, a imposé des restrictions à NVIDIA, limitant la vente de cette GPU en Chine en raison de sa haute performance. Toutefois, NVIDIA a confirmé que la production à grande échelle de la puce B200 commencerait au quatrième trimestre de 2024, avec les premières livraisons prévues pour la fin de cette année.

La fabrication de la puce B200 n’a pas été exempte de difficultés. NVIDIA a admis avoir été confronté à des défis significatifs dans les processus de production, ce qui a conduit l’entreprise à redessiner certaines couches de la puce pour améliorer sa performance. « Nous avons été forcés d’introduire un changement dans le masque du GPU Blackwell pour améliorer le rendement de la production », a expliqué NVIDIA dans un communiqué officiel.

Cependant, ces ajustements semblent avoir porté leurs fruits. Selon les données préliminaires publiées par NVIDIA, la puce B200 quadruple la performance de son prédécesseur, le GPU H100 basé sur la microarchitecture Hopper. Dans les tests effectués avec MLPerf 4.1, le B200 a montré une performance de 10.755 tokens par seconde en inférences et de 11.264 tokens par seconde en tests de référence hors ligne, ce qui souligne sa capacité inégalée sur le marché.

La B200 sera intégrée dans la plateforme NVIDIA DGX B200, qui offre une performance révolutionnaire avec sa configuration de huit GPUs Blackwell interconnectés par la cinquième génération de NVIDIA NVLink. Cette plateforme est capable de gérer de grands modèles linguistiques, des systèmes de recommandation et des chatbots, fournissant un accroissement de performance de l’entraînement par trois et de l’inférence par 15 par rapport aux générations précédentes.

La DGX B200 est équipée avec 1440 GB de mémoire de GPU et atteint une performance de 72 petaFLOPS en entraînement et 144 petaFLOPS en inférence. Avec une consommation d’énergie d’environ 14,3 kW, la plateforme comprend des processeurs Intel Xeon Platinum, du stockage NVMe et un solide support de réseaux, incluant InfiniBand et Ethernet allant jusqu’à 400 Gb/s.

Spécifications Détaillées de NVIDIA DGX B200:

  • Carte Graphique (GPU) : 8 GPUs NVIDIA Blackwell.
  • Mémoire de GPU : Total de 1440 GB de mémoire de GPU.
  • Performance : 72 petaFLOPS en entraînement et 144 petaFLOPS en inférence.
  • Consommation d’Énergie : Environ 14,3 kW.
  • CPU : 2 Processeurs Intel® Xeon® Platinum 8570, avec 112 cœurs au total (2,1 GHz de base, 4 GHz en boost max).
  • Mémoire du Système : Jusqu’à 4 TB.
  • Réseaux :
    • 4 ports OSFP pour 8 VPI NVIDIA ConnectX-7 à un seul port (InfiniBand/Ethernet jusqu’à 400 Gb/s).
    • 2 DPU à double port QSFP112 NVIDIA BlueField-3 (InfiniBand/Ethernet jusqu’à 400 Gb/s).
    • NIC intégrée de 10 Gb/s avec RJ45.
    • NIC Ethernet à double port de 100 Gb/s.
  • Stockage :
    • Système d’Exploitation: 2 NVMe M.2 de 1,9 TB.
    • Stockage Interne: 8 NVMe U.2 de 3,84 TB.
  • Logiciel :
    • NVIDIA AI Enterprise: logiciel d’IA optimisé.
    • NVIDIA Base Command™ : orchestration, planification et gestion de clusters.
    • DGX OS/Ubuntu : système d’exploitation.
  • Unités de Rack (RU) : 10 RU.
  • Dimensions du Système : Hauteur : 444 mm, Largeur : 482,2 mm, Longueur : 897,1 mm.
  • Température Opérative : 5–30 °C.
  • Support Entreprise : Support technique d’entreprise pendant trois ans pour le matériel et le logiciel, portail de support continu et support par un agent en direct pendant les heures de bureau locales.

En résumé, la puce B200 de NVIDIA représente une avancée monumentale dans la technologie de l’IA, bien qu’elle n’ait pas été sans ses défis en production. Avec sa puissance sans précédent, elle promet d’établir de nouvelles normes dans le traitement des données et l’intelligence artificielle, tandis que la concurrence dans le secteur, y compris AMD et Huawei, se préparera sûrement à répondre à cette offre formidable de NVIDIA.

Plus d’informations : Nvidia B200