La course à l’“AI PC” ne se limite plus à une compétition entre Intel, AMD, Qualcomm ou Apple. En Chine, Moore Threads, connue jusqu’à présent principalement pour ses GPU et son écosystème MUSA, a présenté Yangtze, un SoC destiné aux portables et mini-PCs, visant à offrir une solution tout-en-un pour les charges de travail modernes : CPU, GPU intégrée, NPU et un bloc multimédia prêt pour la vidéo en haute résolution.
Selon les informations dévoilées après sa présentation, Yangtze intègre un processeur à 8 cœurs avec une fréquence maximale de 2,65 GHz, et surtout la composante phare pour la communication commerciale autour de l’AI PC : une NPU de 50 TOPS (INT8), conçue pour accélérer des tâches telles que la reconnaissance vocale et visuelle, ainsi que des fonctions d’IA exécutées en local.
Un SoC pensé pour “tout en un”: NPU, iGPU et moteur multimédia
Le lancement décrit Yangtze comme une solution entièrement intégrée, un point essentiel sur le marché des portables et mini-PCs, où l’équilibre entre performances, consommation et coût est crucial par rapport à un ordinateur de bureau traditionnel.
Dans cette optique, Moore Threads met en avant trois éléments clés :
- NPU (50 TOPS) : conçu comme un moteur neuronal multicœurs pour accélérer l’inférence dans les tâches d’IA courantes.
- iGPU : ambition de couvrir le rendu 3D et l’accélération de modèles de langage (LLMs), ainsi que les tâches vidéo.
- VPU / moteur multimédia : supportant 8K à 30 FPS et 4K à 60 FPS, avec compatibilité avec H.265, H.264 et AV1.
Ce « noyau » s’accompagne d’autres blocs classiques des SoCs modernes, comme un DPU pour des scénarios multi-écrans (mentionnant la possibilité de double 8K ou jusqu’à huit 4K selon l’interface), un DSP proposant des fonctions telles que la réduction du bruit et des effets audio, ainsi qu’un ISP supportant des caméras jusqu’à 32 MP et le HDR.
Premiers appareils : MTT AIBook et MTT AICube
Moore Threads ne s’est pas contentée de présenter la puce. Des plateformes complètes ont également été dévoilées pour permettre à des utilisateurs et, surtout, à des intégrateurs du marché domestique chinois, de proposer des produits comme un ordinateur portable appelé MTT AIBook et un mini-PC MTT AICube.
Dans les deux cas, la configuration mémoire évoquée est de 32 GB à 64 GB de LPDDR5X, avec un débit supérieur à 100 GB/s. Ce point est crucial, car dans le contexte des « IA en local », la mémoire (capacité et bande passante) peut constituer la véritable barrière pratique, notamment pour travailler avec de grands modèles, de longues sessions ou des pipelines multimodaux.
Ce que Moore Threads cherche à accomplir (au-delà des chiffres)
Au-delà du simple chiffre de « 50 TOPS », la stratégie de Moore Threads s’inscrit dans une vision précise : contrôler une stack complète pour l’AI PC sur le marché chinois, afin de réduire sa dépendance aux solutions étrangères dans un segment qui tend à devenir un standard industriel.
Bien que la société n’ait pas dévoilé en détail l’architecture interne ni les brevets IP précis de CPU/GPU, elle présente le SoC comme une alternative « compétitive » dans la catégorie des configurations à 8 cœurs, en insistant sur l’efficacité et la faible consommation. Concrètement, cela indique que l’objectif n’est pas de dominer les benchmarks mondiaux demain, mais de construire une base installée solide accompagnée d’un écosystème logiciel de qualité.
Tableau comparatif : trois approches pour intégrer l’IA dans le PC
| Approche | Ce qu’elle apporte | Avantages typiques | Limites courantes | Idéal pour |
|---|---|---|---|---|
| SoC avec NPU intégrée (comme Yangtze) | IA en local directement dans le chip | Moins de latence, consommation réduite, intégration complète | Moins de marge thermique que sur bureau ; NPU et mémoire peuvent limiter de très grands modèles | Portables et mini-PCs avec IA toujours disponible |
| CPU + iGPU sans NPU puissante | IA via CPU/GPU généralistes | Compatibilité étendue ; simplicité | Moins d’efficacité pour l’IA continue ; charge accrue sur CPU/GPU | Usage général avec IA occasionnelle |
| PC avec GPU dédié | IA locale avec grande capacité de calcul et VRAM | Meilleur pour modèles volumineux et tâches lourdes | Consommation, coût, exigences thermiques plus importants | Développement, créatifs, labos, inférence locale exigeante |
Le message principal : l’AI PC devient un “format” de marché
La stratégie claire est que l’“AI PC” est en passe de devenir une étiquette commerciale… mais aussi une liste de caractéristiques techniques (NPU, vidéo, mémoire, logiciel) qui pousse les fabricants à l’action. Moore Threads, avec Yangtze, aspire à fournir un SoC « tout-en-un » pour le grand public, intégrant une accélération IA et un design de plateforme prêt à être commercialisé.
Alors que le défi des GPU consistait à concurrencer des écosystèmes bien établis, celui des AI PC ajoute une couche supplémentaire : faire que tout fonctionne efficacement au quotidien (drivers, frameworks, compatibilité logiciels, performance soutenue, efficacité). La fiche est en jeu ; la suite dépend maintenant du déploiement concret en matériel et, surtout, de son adoption.
Questions fréquemment posées
Que signifie un NPU de 50 TOPS ?
C’est une unité de mesure de la capacité de calcul en IA (habituellement en INT8). Utile comme référence, mais ne garantit pas à elle seule la performance finale : la mémoire, le logiciel, le type de modèles et l’efficacité comptent aussi.
À quoi sert un SoC “AI PC” dans un portable ou mini-PC ?
À exécuter des tâches d’IA en local (voix, image, assistants, améliorations vidéo/audio, automatisation) avec moins de latence, moins de dépendance à la cloud et une consommation réduite par rapport à l’utilisation exclusive du CPU/GPU.
Pourquoi la mémoire (32/64 GB LPDDR5X) est-elle si importante en IA locale ?
Car beaucoup de modèles et workflows nécessitent capacité et bande passante ; sans mémoire suffisante, l’expérience se dégrade, même si la NPU est puissante.