La Chine accélère la production d’accélérateurs d’IA dans ses usines locales : le vrai goulet d’étranglement est la HBM (et la capacité des nœuds avancés)

La Chine accélère la production d'accélérateurs d'IA dans ses usines locales : le vrai goulet d'étranglement est la HBM (et la capacité des nœuds avancés)

La course à la souveraineté dans le domaine du calcul en intelligence artificielle entre dans une nouvelle phase en Chine. Après des années de sanctions, restrictions à l’exportation et tensions géopolitiques, les champions nationaux accélèrent la production d’accélérateurs IA dans usines domestiques, avec Huawei et Cambricon en tête. Les données internes et estimations d’analystes indiquent une production pouvant atteindre plus d’un million d’unités par an à partir de 2026. Cependant, cet élan est confronté à deux obstacles majeurs : la mémoire HBM et la capacité de production sur les nœuds avancés.

La narrative qui émerge est claire : la logique ne constitue plus le seul frein. Même si SMIC (le principal fondeur chinois) et de futures usines opérant en classe 7 nm améliorent rendements et cycles de fabrication dans des processus de 7 nm, la pénurie de HBM — mémoire haute bande passante indispensable pour entraîner et inférer avec les grands modèles linguistiques modernes à grande échelle — apparaît comme le principal facteur limitant de l’offre réelle d’accélérateurs à court terme.


Le virage de la Chine : de la dépendance à TSMC à la promotion de la fabrication locale

Les listes d’entités du Département du Commerce américain et les séries successives de contrôles à l’exportation ont contraint les entreprises chinoises à revoir leur stratégie d’approvisionnement. En 2024, selon plusieurs sources industrielles, Huawei aurait puisé dans un « banque de dies » (die bank) fabriqués antérieurement chez TSMC pour traverser la transition, tandis que SMIC perfectionnait ses processus en nodules 7 nm (N+2) sous forte pression.

Cette réserve a permis de soutenir le lancement et la montée en volume de la série Ascend 910 (B et C) tandis que SMIC affûte ses processus, automatisation et capacité. Par ailleurs, Huawei a renforcé son verticalisme : de la conception à la fabrication, notamment avec la création de SiCarrier pour développer et dupliquer des outils clés, ainsi qu’un packaging avancé.

Ce qui changera en 2025–2026

  • SMIC a migré de la fabrication principalement de SoC mobiles (comme le Kirin 9000S) vers l’augmentation du poids de grands dies orientés IA (Ascend).
  • Le cycle de fabrication en 7 nm chez SMIC reste plus long que chez TSMC, avec un multipatternage DUV intensif, mais des signes d’amélioration apparaissent en volume et en rendements.
  • Huawei vise à exploiter ses fabs propres pour libérer la capacité de SMIC et accélérer les itérations; si réussi, cela permettrait de démonter le niveau en volume et en contrôle de processus.

La limite physique actuelle : la HBM, pas la logique

Pour des raisons de performance et d’efficacité énergétique, les accélérateurs IA modernes exigent la HBM (HBM2E/3/3E…), La Chine a accumulé un volume conséquent de piles étrangères avant la mise en œuvre de nouvelles restrictions fin 2024, mais cet stock s’épuisera dans les prochains trimestres si aucune nouvelle émission n’intervient. La lecture stratégique est claire : sans HBM supplémentaire, le nombre d’ASIC IA assemblés diminue même si des dies logiques sont disponibles.

Pourquoi la HBM est critique

  • Une bande passante massive par watt et par socket, essentielle pour RLHF, SFT, MoE et l’inférence multimodale.
  • Il n’existe pas de substitut direct : GDDR/LPDDR peut couvrir certains usages ou inférences légères, mais ne peut pas évoluer pour atteindre les performances de pointe en entraînement et en services à grande échelle.
  • Les techniques de packaging 2.5D/3D (interposers, TSV, empilement) ajoutent complexité et goulots d’étranglement dans les OSAT (entreprises d’assemblage et de tests), ce qui constitue un autre front où la Chine accélère mais ne rivalise pas encore avec les leaders mondiaux.

CXMT, le “second moteur” qui tarde à décoller

En matière de DRAM/HBM, CXMT représente l’espoir principal. La société a rattrapé son retard en DDR5 et progresse vers HBM3/3E, avec des investissements du Big Fund et des alliances avec JCET et Tongfu. Toutefois, la montée en puissance de l’HBM nécessite des outils spécifiques, procédés TSV et une courbe d’apprentissage qui ne peut être raccourcie par décret.

Les projections prudentes estiment la production HBM de CXMT autour de 2–3 millions de stacks en 2026, suffisantes pour 250 000–400 000 paquets Ascend 910C (selon configuration), ce qui reste bien en deçà de ce qu’Huawei peut assembler en ayant la logique en quantité. En d’autres termes, la pénurie de HBM en 2026–2027 constitue le principal goulot d’étranglement.


SMIC : capacité croissante, rendements en progression, cycles toujours longs

Les analystes divergent sur les chiffres précis, mais convergent sur la tendance : SMIC augmente sa capacité à exploiter des nœuds avancés (7 nm et dérivés DUV) avec pour objectif 45 000 wafers/mois fin 2025, 60 000 en 2026 et 80 000 en 2027. Bien que les rendements soient inférieurs à ceux de TSMC, la production annuelle de plusieurs millions de dies de classe Ascend reste envisageable si la priorisation de capacité est assurée.

Le principal obstacle demeure le contrôle du cycle. Entre le démarrage des wafers et le module final avec packaging avancé, le cycle total chez SMIC est estimé deux fois plus long que chez TSMC en 7 nm DUV, en raison d’un multipatternage intensif, de moins d’outils de pointe par ligne et d’une moins grande automatisation. Cet écart n’est pas trivial lorsqu’on vise une échelle mensuelle de plusieurs dizaines de milliers de dies.


“Diplomatie du calcul” : chips étrangers “contrôlés”, location offshore et pressions réglementaires

Alors que la Chine accélère sur la base domestique, le contexte international évolue :

  • Nvidia H20/H20E (versions adaptées aux contrôles) ont reçu l’accord pour entrer en Chine ; il existe des rapports sur un B30A (famille Blackwell) avec plus de FLOPs et beaucoup de mémoire, respectant ou disposant de licences spécifiques dans le cadre des contrôles.
  • Location de calculs hors de Chine (par ex., Malaisie) permet de former avec des GPUs de pointe sans que les chips doivent physiquement être dans le pays, la désconnexion étant un levier dans le contrôle si les conditions sont enfreintes.
  • La conséquence : des acteurs comme DeepSeek, Qwen (Alibaba) ou Kimi (Moonshot) peuvent continuer à entraîner et fournir de meilleurs services, même si la souveraineté totale reste éloignée tant que la HBM locale ne s’intensifie pas.

Remplacer GPU par ASIC “natif” ? Un débat qui dépasse le silicium

Depuis Pékin et par des voix industrielles, l’idée de divergence du “chemin CUDA” vers des ASIC et des systèmes non occidentaux est encouragée. La performance d’un ASIC bien conçu pour des tâches ciblées est indéniable ; cependant, cela soulève la question de l’écosystème : bibliothèques, compilateurs, frameworks, outils et talent consacrés pendant une décennie à l’écosystème Nvidia/CUDA ou TPU/XLA.

Les Ascend de Huawei se sont améliorés en logiciel et en opérateurs, mais, selon des sources du secteur, il subsiste encore des retards en terme de performance et de maturité par rapport à Hopper/Blackwell ou TPU v5 en entraînement SOTA. Sans HBM en volume, la discussion sur l’architecture demeure secondaire : on ne peut pas scaler.


2026 : plus de dies, mais HBM sera-t-il suffisant ?

Si SMIC maintient sa croissance et que Huawei augmente ses capacités internes, la logique pourrait ne plus être le principal goulot d’étranglement en 2026. Le nombre de dies “potentiels” pour Ascend pourrait dépasser plusieurs millions annuellement. Toutefois, sans HBM (externe ou interne), la quantité de modules assemblés sera nettement inférieure aux ambitions.

Scénarios possibles :

  1. Déploiement domestique de HBM (CXMT + OSAT) : la Chine pourrait équilibrer la logique et la mémoire, avec environ 0,3–0,5 M de paquets en 2026, puis accélérer en 2027 si les rendements et outils s’améliorent.
  2. Le trafic illicite / ré-exportation de HBM persisterait : cela augmenterait provisoirement la capacité de production, mais ce n’est pas une solution durable.
  3. Plus de licences pour chips étrangers dotés de beaucoup de mémoire (H20E / B30A) : cela améliorerait la fourniture et la capacité d’inférence, allégeant la demande sur Ascend dans certains segments, mais cela ne remplace pas la nécessité d’une HBM locale pour atteindre l’autosuffisance.

Implications stratégiques

  • Pour la Chine : le programme d’autosuffisance nécessite deux moteurs synchronisés — logique (SMIC/Huawei/Cambricon) et mémoire HBM (CXMT + OSAT) — plus un écosystème logiciel compétitif. La mémoire demeure le goulot d’étranglement immédiat.
  • Pour les États-Unis et leurs alliés : le contrôle sur la mémoire HBM et les outils essentiels a plus d’impact que les restrictions sur la logique pour réguler le rythme d’essor chinois. La cohésion temporelle entre États-Unis, Japon, Pays-Bas et Corée est stratégique pour limiter les « fenêtres d’approvisionnement ».
  • Pour le marché : même avec des limitations, 2026–2027 verra une intensification du calcul en Chine via Ascend + GPUs sous licence + calcul loué. La perception utilisateur dans les applications IA locales s’améliorera grâce à une capacité accrue de service, plus de mémoire et plus de chips.

Conclusion

La Chine est bien engagée dans l’augmentation de sa production d’accélérateurs IA dans ses usines domestiques, et dispose potentiellement de millions de dies si elle optimise l’allocation et améliore ses rendements. Cependant, à court et moyen terme, la clé pour son expansion n’est pas la lithographie, mais la HBM. Sans une montée en puissance robuste de la mémoire locale — ou un accès stable à la HBM étrangère — le nombre de modules assemblés restera en deçà des ambitions. La souveraineté totale du système (du silicium aux tokens) sera un marathon : la HBM donne le tempo.


Questions fréquentes (FAQ)

Pourquoi la HBM constitue-t-elle un goulot d’étranglement supérieur à la logique ?
Parce que les modèles de pointe en IA requièrent un parallélisme massif et une mémoire proche du compute. La HBM fournit ces deux éléments ; sans elle, les entraînements et inférences à grande échelle perdent en performance et efficacité.

Peut-on remplacer la HBM par GDDR ou LPDDR en Chine ?
Pour certains usages spécifiques ou inférences légères, cela pourrait suffire. Mais pour les modèles linguistiques avancés, le bande passante et la topologie qu’offre la HBM sont difficilement réplicables.

SMIC peut-il produire suffisamment de chips IA ?
La capacité et les rendements s’améliorent. Avec 20 à 50 ko wafers par mois et des rendements raisonnables, produire plusieurs millions de dies par an est envisageable. Le vrai défi reste le cycle de fabrication— plus long que TSMC — et surtout le matching avec la HBM.

Quel rôle jouent Nvidia H20/H20E ou un hypothétique B30A ?
Ils peuvent enrichir la capacité de service et d’inférence en Chine sous licence, tout en allégeant la pression sur Ascend. Mais ils ne résoudront pas la question de l’indépendance tant que la HBM locale n’atteindra pas une masse critique.


Source : semianalysis

le dernier