La société chinoise prépare le lancement d’un nouveau processeur destiné à l’entraînement de modèles d’intelligence artificielle, qui promet de rivaliser avec les solutions de NVIDIA dans des environnements de supercalcul.
Huawei franchit une nouvelle étape dans son ambition de devenir un acteur clé dans le secteur de l’intelligence artificielle. Selon des informations publiées par DigiTimes, le géant technologique finalise les derniers détails de l’Ascend 920C, un nouvel accélérateur d’IA qui viendra compléter sa gamme Ascend 920 et qui offrira un rendement brut de plus de 900 TeraFLOPS en précision BF16, conçu pour les tâches d’entraînement de grands modèles.
Le Ascend 920C sera fabriqué avec un nœud de 6 nanomètres de SMIC, représentant une amélioration substantielle par rapport à l’actuel Ascend 910C, qui atteint un pic de 780 TeraFLOPS. En ce qui concerne la mémoire, le nouveau modèle intégrera des modules HBM3 ayant une bande passante de 4 000 Go/s, surpassant les 3 200 Go/s fournis par les huit paquets HBM2E du 910C.
Une évolution axée sur la performance et la scalabilité
Le Ascend 920C maintiendra le concept de chiplet, mais incorporera des améliorations dans ses moteurs d’accélération pour les modèles Transformer et Mixture-of-Experts. Les projections internes de Huawei estiment une amélioration de 30 % à 40 % de l’efficacité d’entraînement par rapport à son prédécesseur. Une réduction de l’écart concernant le rendement par watt face à ses concurrents directs, comme NVIDIA, est également attendue.
Parmi les nouveautés notables figure la compatibilité avec PCIe 5.0 et les protocoles d’interconnexion de nouvelle génération, conçus pour réduire la latence et améliorer la synchronisation entre les nœuds dans de grands déploiements d’IA. La société n’a pas encore annoncé de date officielle de lancement, mais selon des sources consultées, le Ascend 920C devrait entrer en production massive dans la seconde moitié de 2025.
CloudMatrix 384 : un supernœud qui surpasse déjà NVIDIA en échelle
Cet annonce survient quelques jours après que Huawei ait révélé les résultats de son système CloudMatrix 384, un supernœud d’entraînement utilisant 384 accélérateurs Ascend 910C et qui a réussi à surpasser en performance totale le système NVIDIA GB200 NVL72. Bien que la performance par puce soit inférieure à celle de NVIDIA (900 contre 2 500 TeraFLOPS en BF16), Huawei compense par sa scalabilité, dépassant de 1,7 fois le rendement global et multipliant par 3,6 la capacité totale de mémoire HBM.
Cependant, cette capacité entraîne un coût énergétique : le système de Huawei consomme environ 560 kW, contre 145 kW pour le système de NVIDIA. La stratégie de Huawei semble se concentrer sur la maximisation des performances lors de déploiements à grande échelle, tandis que NVIDIA continue de dominer en matière d’efficacité par puce.
Un modèle d’avenir basé sur la capacité et l’autonomie
La clé du succès de Huawei réside dans son architecture d’interconnexion all-to-all et son engagement à construire des solutions complètes d’IA sans dépendre de fournisseurs étrangers, conformément à son objectif stratégique d’autonomie technologique.
Le Ascend 920C représente une avancée significative dans cette direction. Si SMIC parvient à progresser vers des processus de fabrication plus avancés, tels que les technologies 5 nm ou 3 nm, Huawei pourrait encore réduire l’écart avec les leaders du secteur en termes d’efficacité énergétique et de densité de calcul.
Dans un contexte où l’entraînement de modèles fondamentaux comme GPT ou Gemini nécessite de plus en plus de ressources computationnelles, des solutions comme celle de l’Ascend 920C et son intégration dans des systèmes tels que CloudMatrix pourraient être déterminantes pour rivaliser sur le marché mondial de l’intelligence artificielle à grande échelle.
La bataille entre les géants est lancée, et Huawei ne semble pas vouloir rester à la traîne.
Source : Techpowerup