2025 : La plus grande bulle de l’IA par rapport à la bulle Internet ? Données clés (×17) et signaux d’alerte

2025 : La plus grande bulle de l'IA par rapport à la bulle Internet ? Données clés (×17) et signaux d'alerte

La discussion n’est plus de savoir si l’intelligence artificielle (IA) transformera l’économie, mais à quel coût financier. Au cours des dernières 48 heures, plusieurs voix influentes — des cabinets de conseil macroéconomique aux banquiers de Wall Street en passant par les géants de la big tech — ont déclenché des alertes synchronisées concernant un potentiel excès spéculatif dans tout ce qui concerne l’IA. Pour certains, ce n’est pas un simple signal précoce : c’est une “banderole rouge”.

La mise en garde la plus sévère provient d’une note de MacroStrategy Partnership, rédigée par une équipe d’analystes incluant Julien Garran (ancien UBS). Le document affirme que la bulle alimentée par l’IA serait 17 fois plus importante que la poussée des dot-com à la fin des années 1990, et quatre fois celle de la bulle immobilière mondiale qui éclata en 2008. La comparaison ne provient pas d’un simple titre sensationnaliste, mais d’une approche “wicksellienne” : après des années de taux artificiellement faibles et d’expansion quantitative, le coût de la dette des entreprises serait resté en dessous du seuil considéré comme sain par Knut Wicksell, favorisant ainsi une allocation inefficace du capital. Cette observation n’inclut pas uniquement l’IA : elle concerne également l’immobilier, les bureaux, les NFT ou encore le capital-risque.

Avons-nous atteint un plafond pour les modèles de langage (LLM) ?

MacroStrategy ne se limite pas à la sphère financière. Garran évoque également des limites pratiques concernant les modèles de langage (LLM) :

  • Une entreprise de logiciel a enregistré des taux de complétion de tâches très variables, allant de 1,5 % à 34 %, même dans le meilleur des cas, avec des résultats inconstants.
  • Les données du Departement du Commerce des États-Unis, relayées par l’économiste Torsten Slok (Apollo) et citées dans la note, montrent que l’adoption de l’IA dans les grandes entreprises commence à décroître.
  • Lors de tests ad hoc — comme demander à un générateur d’images un tableau d’échecs à une étape du mat —, les résultats n’atteignaient même pas la demande initiale.

La thèse de fond : les LLM approchent d’un plafond de scalabilité. “Nous ne savons pas précisément quand un LLM entre dans une diminution des rendements, car nous ne mesurons pas la complexité statistique du langage. Mais si le prochain modèle coûte 10 fois plus, consomme 20 fois plus de ressources et n’offre pas d’amélioration tangible, alors nous sommes face à une impasse”, résume Garran.

MacroStrategy illustre ces propos avec une escalade des coûts : ChatGPT-3 aurait coûté 50 millions de dollars, GPT-4 500 millions, et GPT-5selon la note — pourrait faire réinitialiser à 5 milliards de dollars. Son développement aurait été retardé, et à sa sortie, il ne serait pas sensiblement supérieur à ses prédécesseurs. Dans ce contexte, il n’y aurait pas de fossé concurrentiel durable, et les marges s’étirent : “Les cas commerciaux sont soit généraux (jeux), soit reciclant du domaine public (tâches, devoirs), ou touchant au copyright. La publicité est difficile à cibler, et le coût de formation explose exponentiellement avec des améliorations marginales. Il n’y a pas de pricing power dans le modèle, et le consommateur intensif utilise plus de ressources que ce que lui coûte son abonnement mensuel”, conclut Garran.

Risques macroéconomiques : “zone 4” de l’horloge d’investissement

Sur le plan macro, la société met en garde contre un “effondrement déflationniste” possible si l’effet richesse des plateformes IA et le cycle de construction de data centers s’essoufflent… puis se retournent. La problématique, précisent-ils, serait double : “Non seulement on entrerait dans la zone 4 de l’horloge d’investissement ; mais il deviendrait également difficile pour la Fed et la Présidence Trump de réinjecter de la relance rapidement”. La stratégie de portefeuille proposée par MacroStrategy consiste à infraponderer les plateformes et IA, tout en surpondérant les ressources et les pays émergents (avec l’Inde et le Vietnam en premières lignes), et à privilégier l’exposition à l’or minier, aux obligations du Trésor US à court terme, à la volatilité et au yen (par rapport aux devises non internationales USD).

Endettement des centres de données : un autre indice

La dette des grandes entreprises technologiques pour financer la construction de centres de données IA suscite également des préoccupations, notamment de Dario Perkins (TS Lombard). Sur Axios, il compare la frénésie actuelle à celle de l’ère dot-com et subprime : “Ils disent qu’ils se fichent que leur investissement rende ou non, car ils sont dans une course. C’est déjà une banderole rouge en soi.”

Wall Street : avertissement sur un ‘drawdown’ (et prudence des big tech)

Lors du Italian Tech Week, le CEO de Goldman Sachs, David Solomon, évoquait un “drawdown” boursier probable dans 12–24 mois : un excès de capital déployé en trop peu de temps, dont une partie ne rapportera pas. “Quand cela arrivera, les investisseurs n’auront pas le moral”, a-t-il dit à CNBC. Il n’a pas affirmé qu’il s’agissait d’une bulle, mais a reconnu que certains investisseurs étaient “au sommet de la courbe de risque” par excitation, un symptôme classique d’euphorie.

De son côté, Jeff Bezos (Amazon) a aussi reconnu lors du même forum qu’il existait une bulle en IA — “les investisseurs ont du mal à distinguer les bonnes idées des mauvaises dans la euphorie” — mais il a défendu la vision que cette technologie représenterait un avantage majeur à long terme.

Les sirènes ignorées par le marché (pour l’instant)

Malgré ces avertissements, les indices boursiers restaient robustes en fin de semaine. Le S&P 500 enchaînait son trentième record de 2025 (6.715,35), les futures montaient aussi, et l’or — autre indicateur de risque — grimpa à 3.887,6 USD (+47,3 % depuis le début de l’année). Le Nasdaq Composite atteignait 22.844,05; la rentabilité du Treasury à 10 ans frôlait 4,094 %; le pétrole tombait à 60,9 USD. Parmi les titres les plus actifs figuraient Tesla (TSLA), NVIDIA (NVDA), GameStop (GME), TSMC (TSM), Palantir (PLTR), Nio (NIO), Amazon (AMZN), Intel (INTC), Apple (AAPL) et AMD (AMD). La donne de l’ISM et les prises de parole de la Fed (John Williams, Stephen Miran) complétaient le tableau, en indiquant que le taux de chômage resterait aux alentours de 4,3 % selon un nowcast de la Fed de Chicago.

Divergences dans le secteur des entreprises

Le flux d’informations appuie la thèse du “beaucoup d’argent, très vite” :

  • Applied Materials a anticipé un impact de 710 millions de dollars sur ses revenus en raison de nouveaux contrôles à l’exportation (BIS) durant les cinq prochains trimestres.
  • Jefferies a revisé à la baisse Apple en la classant en “infraponderation”, en raison des attentes inflationnistes autour d’un iPhone pliable.
  • BlackRock’s Global Infrastructure Partners (GIP) serait en négociations avancées pour racheter Aligned Data Centers (financement de Macquarie) pour environ 40 milliards de dollars, selon Bloomberg : cela indique que les actifs de colocation continuent d’attirer de très importants capitaux.
  • L’IA stimule également des montées en valeur en Chine, en redynamisant des secteurs liés au calcul et aux réseaux.

Bulle ou correction saine ? Ce que disent les chiffres… et ce qu’ils ne disent pas

Les chiffres 17x et 4x de MacroStrategy incluent plus que l’IA pure — ils englobent aussi l’immobilier, NFTs et capital-risque dans leur “déficit wicksellien”. Ainsi, ces chiffres reflètent davantage la politique monétaire ultra-accommodante de la décennie précédente qu’un simple excès d’IA, ce qui ne invalide pas la mise en garde, mais en nuance la portée : les taux bas ont gonflé plusieurs actifs simultanément ; l’IA reste le moteur le plus visible pour 2024–2025, notamment dans les chips, la mémoire, les centres de données et l’énergie.

La face technologique est également plus segmentée. Tandis que les LLM généraux montrent des signes de fatigue (rapport qualité-coût), le pipeline de l’IA vertical — copilotes pour tâches spécifiques, vision industrielle, biosimulation — continue d’apporter une valeur ajoutée. Une partie du capex hyperscale est justifiée par le renouvellement des flottes, l’efficience par watt et la réduction de la latence pour l’edge et le serving. Le vrai risque ne réside pas dans l’IA en tant que concept, mais dans le rythme d’investissement face à des retours tangibles et des limites physiques (puissance, refroidissement, mémoire).

Un élément clé est constitué par les indicateurs précoces des bénéfices corporate contre ceux du S&P 500. Les analyses de Ned Davis Research citées par MarketWatch montrent que si, en T1 et T2, les bénéfices corporatifs (NIPA) sont en déclin malgré la progression du S&P, cette divergence ne dure généralement pas : si la NIPA devance le S&P de 1-2 trimestres, cela pourrait indiquer que les estimations du marché sont trop optimistes, ce qui représente un risque à la baisse dans les prochains trimestres.


Que font en attendant les “leaders de l’IA” ?

Dans ce contexte, les géantsNVIDIA, TSMC, AMD, Intel, Amazon, Microsoft, Alphabet — naviguent une paradoxe: ils sont gagnants du cycle (demande en GPU, HBM, cloud et colocation), mais aussi les premiers exposés si l’enjeu d’investissement se ralentit ou si les retours prennent plus de temps. Le rally de NVIDIA concentre la narration, tandis que TSMC sert de baromètre de l’offre (nœuds N2/A16, emballage avancé); AMD et Intel rivalisent en GPU/CPU pour l’IA ; les hyper-scalaires répartissent leurs dépenses entre GPUs, silicium personnalisé et centrales de données. La dette dans l’infrastructure — soulignée par TS Lombard — ajoute également du levier à ce cocktail.


Ce qui pourrait briser (ou sauver) le cycle

Quelque chose pourrait le faire basculer :

  • Frein sur le capex hyperscale si retours et adoption ne suivent pas ;
  • Contraintes énergétiques pouvant ralentir la livraison des data centers ;
  • Des limites persistantes en mémoire/flash et HBM dépassant les attentes ;
  • Une réglementation accrue (données, copyright, contrôles à l’export) qui augmente le coût et retarde les déploiements.

Ce qui pourrait l’éviter :

  • Une efficacité accrue en software (quantification, sparsity, distillation) réduisant le coût par token ;
  • Un silicium spécialisé (NPUs, accélérateurs) améliorant le rendement par watt ;
  • Une demande verticale (santé, industrie, finance) avec des cas concrets de ROI ;
  • Une politique industrielle/énergétique visant à accélérer l’intégration de méga-mégawatts et énergies renouvelables.

Deux recommandations pour le lecteur/investisseur

  1. Différencier “l’IA narrative” de “l’IA opérationnelle”. Interroger le rapport €/résultat (€/époque, €/10^6 tokens, €/inférence P95) plutôt que €/heure. Et examiner kWh/travail. Si l’entreprise les mesure, le risque de “fumer” diminue.
  2. Surveiller les délais physiques : MW signés, dates de sous-stations, supply de GPU/HBM, refroidissement liquide. Le temps de calcul réel prime sur le storytelling.

Conclusion : le bruit d’aujourd’hui n’efface pas le long terme, mais demande des filtres fins

La IA ne disparaît pas après un “drawdown”: comme Internet après 2000, elle survivra et évoluer. Ce qui peut être sapé, c’est la courbe des attentes — et par voie de conséquence, des valorisations qui anticipent des retours immédiats et sans friction. En attendant, il est important de distinguer la technologie transformatrice de celles en course financée à taux zéro. Et, comme le rappelait Bezos, accepter que “au milieu de l’euphorie, il est difficile de faire la différence entre bonnes et mauvaises idées”. C’est précisément la tâche de l’investisseur et du gestionnaire prudent en 2025.


Questions fréquentes

D’où provient le “17× dot-com” et le “4× subprime” de la prétendue bulle IA ?
D’une note de MacroStrategy Partnership qui calcule un “déficit wicksellien” après plusieurs années de taux artificiellement bas, en intégrant pas seulement l’IA, mais aussi l’immobilier, les bureaux, NFTs et le capital-risque. La thèse est que l’excès de liquidités a surfinancé de façon massive plusieurs actifs.

Quels indicateurs montrent la limite de scalabilité des LLM ?
Les taux de finalisation en tâches réelles, oscillant de 1,5 % à 34 %, une décélération de l’adoption par les grandes entreprises (données du Departement du Commerce relayées par Torsten Slok), et une montée des coûts (GPT-3 à 50 millions $, GPT-4 à 500 millions $, GPT-5 à 5 milliards $), avec des améliorations marginales.

Que recommandent les analystes face à un risque de correction ?
MacroStrategy préconise infraponderer l’IA et les plateformes, tout en surpondérant les ressources et les émergents (Inde, Vietnam), et en adoptant une position longue sur l’or minier, les obligations du Trésor US à court terme, la volatilité et le yen face aux devises non USD.

Que pensent les représentants des gros acteurs et du secteur bancaire d’investissement ?
David Solomon (Goldman Sachs) voit可能 un “drawdown” dans 12–24 mois, suite à un déploiement excessif de capitaux, tandis que Jeff Bezos admet l’existence d’une bulle mais y voit un grand potentiel long terme.
Dario Perkins, lui, alerte sur la montée rapide de l’endettement pour les data centers IA, la qualifiant de “banderole rouge”.

Sources : MarketWatch (03/10/2025); Axios; CNBC; Common Dreams; Bloomberg (GIP–Aligned).

le dernier