La rentabilité des usines d’IA : NVIDIA domine avec des marges de 77,6 %, tandis qu’AMD plonge dans les pertes

La rentabilité des usines d'IA : NVIDIA domine avec des marges de 77,6 %, tandis qu'AMD plonge dans les pertes

L’engouement pour l’intelligence artificielle a inauguré une nouvelle phase dans le domaine des infrastructures numériques : l’émergence des « usines d’IA », d’immenses centres de données conçus pour exécuter des modèles d’inférence à l’échelle industrielle. Mais au-delà des avancées technologiques, ce qui attise la curiosité des analystes et des investisseurs, c’est la réalité économique qui se cache derrière ces installations.

Selon un rapport récent de Morgan Stanley, les chiffres sont sans appel : NVIDIA domine avec une marge opérationnelle de 77,6 % grâce à ses racks GB200 NVL72, tandis que ses concurrents comme Google, Amazon et Huawei affichent également des résultats financiers solides. En revanche, AMD connaît des pertes significatives, avec des marges négatives pouvant aller jusqu’à – 64 % sur ses plateformes les plus récentes.

L’expression « usine d’IA » ne relève pas de la métaphore : elle désigne un modèle standardisé de centre de données d’une puissance de 100 MW, conçu pour évaluer la rentabilité de l’inférence à grande échelle.

Morgan Stanley a élaboré une grille d’analyse baptisée « Modèle d’usine d’IA 100 MW », reposant sur trois piliers principaux :

1. Une unité de calcul standardisée : 100 MW de consommation électrique, équivalant à environ 750 racks de serveurs haute densité.

2. Un cadre précis de coûts : comprenant la construction (environ 660 millions de dollars amortis sur 10 ans), l’achat de matériel (entre 367 millions et 2,273 milliards de dollars sur 4 ans), ainsi que les coûts opérationnels en électricité et refroidissement.

3. Une formule de revenus basée sur la production de tokens dans les modèles de langage, avec un prix moyen estimé à 0,20 dollar par million de tokens, en tenant compte d’un taux d’utilisation réel de 70 %.

Avec cette méthodologie, Morgan Stanley estime qu’une usine d’IA type affiche un coût total de propriété annuel compris entre 330 et 807 millions de dollars, selon le hardware employé.

Malgré cet investissement conséquent, NVIDIA démontre que la rentabilité reste exceptionnelle. Son rack GB200 NVL72, intégrant 72 GPU B200 et 36 CPU Grace, interconnectés par un NVLink 5, coûte environ 3,1 millions de dollars, contre seulement 190 000 dollars pour un rack H100 de génération précédente. La différence d’investissement est compensée par une efficacité de traitement inégalée : cette architecture permet de maximiser le nombre de tokens traités par watt, traduisant cette performance en une marge opérationnelle de 77,6 %, un record dans le secteur.

Ce leadership s’appuie non seulement sur la puissance brute des composants NVIDIA, mais aussi sur un écosystème logiciel complet (CUDA, TensorRT, frameworks optimisés), garantissant que chaque dollar investi en hardware génère un maximum de tokens et de revenus.

D’autres géants de la tech, comme Google, Amazon et Huawei, ont aussi su obtenir des bénéfices solides, bien qu’avec des marges inférieures : Google utilise ses pods TPU v6e avec une marge de 74,9 %, Amazon propose des solutions AWS Trn2 UltraServer avec 62,5 %, et Huawei se positionne avec une plateforme Ascend CloudMatrix 384 à 47,9 %. Ces acteurs profitent d’un avantage concurrentiel par leur intégration verticale et leurs stratégies matérielles et logicielles.

Cependant, AMD doit faire face à une débâcle : ses plateformes MI300X et MI355X, destinées à concurrencer sur le segment haute performance, affichent des marges négatives allant jusqu’à – 64 %. La cause principale réside dans des coûts initiaux très élevés et une faible efficacité en inférence, limitant la génération de tokens et, par conséquent, les revenus.

Ce contexte souligne que l’inférence de l’IA ne se limite plus à un défi technologique mais devient un véritable modèle économique, avec des formules d’investissement et de retour mesurables. Ces « usines d’IA » sont susceptibles de devenir la prochaine grande classe d’infrastructures, comparable aux centrales électriques ou aux réseaux de télécommunications.

Cela soulève des questions clés : comment garantir une puissance électrique suffisante pour supporter des GPUs de 1 200 W ou plus ? Les fournisseurs d’énergie pourront-ils suivre la croissance de la demande ? Quel équilibre trouver entre déploiement rapide, refroidissement liquide et régulations pour maximiser la rentabilité ?

Le rapport prévoit aussi que la compétition ne se limitera pas aux puces, mais s’étendra aux écosystèmes de connectivité. NVIDIA maintient son avance avec NVLink, mais AMD pousse le standard UALink, et d’autres défenseurs comme Broadcom misent sur Ethernet pour rivaliser dans cette course aux standards. La prochaine étape majeure, prévue pour 2026 avec la plateforme « Rubin », risque d’intensifier cette compétition.

En résumé, les chiffres de Morgan Stanley illustrent une divergence frappante : NVIDIA et Google dominent avec des marges proches de 80 %, tandis qu’Amazon et Huawei, malgré leur rentabilité, se positionnent dans une fourchette inférieure. AMD, quant à elle, voit ses marges s’envoler en négatif, remettant en question son rôle dans cette course.

L’avenir de l’inférence IA s’inscrit désormais dans une logique de rentabilité précise et d’industrialisation scalable, où les « usines d’IA » produiront bientôt non seulement des modèles et des tokens, mais aussi des marges de profit sans précédent pour ceux qui sauront maîtriser cette équation technologique et financière.

le dernier