
La consommation énergétique des GPU pour l’IA explose : les accélé rateurs pourraient dépasser les 15 000 W dans la prochaine décennie
Un rapport publié par l’Institut Avancé de Science et Technologie de Corée (KAIST) et le laboratoire TERA révèle que l’**essor fulgurant de l’intelligence artificielle (IA) et le développement de nouvelles générations de mémoire HBM (High Bandwidth Memory) mettent à l’épreuve la consommation énergétique des GPU dédiés à l’IA**. Ce document prévoit une augmentation sans précédent des besoins énergétiques des systèmes de calcul haute performance. HBM : la course vers des mémoires ultra-rapides et à grande capacité Actuellement, la technologie HBM3E permet à des accélérateurs comme la NVIDIA B300 et l’AMD MI350 d’atteindre des capacités allant jusqu’à 288 Go de mémoire haute bande passante. La prochaine génération, HBM4, fera passer la capacité à 384 Go pour NVIDIA (série Rubin) et jusqu’à