Le piège des 8 billions : l’infrastructure d’IA que personne ne sait encore comment financer

Le piège des 8 billions : l'infrastructure d'IA que personne ne sait encore comment financer

Les derniers mois ont laissé une sensation étrange dans l’écosystème technologique : d’un côté, un enthousiasme presque irrationnel pour l’intelligence artificielle ; de l’autre, des chiffres d’investissements qui commencent à paraître totalement déconnectés de toute logique commerciale durable.

En reliant trois éléments — les chiffres d’IBM sur les centres de données, les avertissements de Geoffrey Hinton et les données froides de McKinsey — le puzzle des “8 billions” (trillions dans la nomenclature anglo-saxonne) esquisse un scénario inconfortable : on construit une infrastructure colossale pour l’IA sans modèle économique clair permettant sa viabilité à long terme.


1. La facture de l’IA : du battage médiatique à l’arithmétique de base

Lors d’une intervention récente largement relayée dans le secteur, le CEO d’IBM, Arvind Krishna, a chiffré ce qui jusqu’ici n’était qu’une intuition : un seul mégacentre de données de 1 gigawatt dédié à l’IA pourrait coûter environ 80 milliards de dollars en CAPEX. Multiplié par les ~100 centres que certains analystes envisagent pour la prochaine décennie, ce chiffre s’envole à 8 trillions de dollars d’investissement cumulé.

Bien que les détails précis de ce calcul puissent faire l’objet de débats, l’ordre de grandeur reste significatif :

  • Les data centers dédiés à l’IA ne sont pas “un peu plus chers” que ceux d’aujourd’hui : ils évoluent dans une autre ligue en termes de puissance, refroidissement, design électrique et réseaux internes.
  • Le hardware critique (GPU, accélérateurs, switches, stockage rapide) a une durée de vie économique de 3 à 5 ans avant de devenir obsolète face à de nouvelles générations.
  • À taux d’intérêt actuel, financer plusieurs trillions en CAPEX implique des centaines de milliards par an en service de la dette.

Et tout cela se déroule alors que les grands fournisseurs de cloud annoncent des CAPEX annuels de dizaines de milliards liés à l’IA et aux centres de données avancés. Ce rythme de dépense pourrait être supportable… si l’IA générative produisait déjà des retours massifs et mesurables. Mais c’est là que la seconde réalité frappe.


2. McKinsey refroidit la fête : presque tout le monde utilise l’IA, peu en tirent profit

Selon le rapport The State of AI in 2025 de McKinsey, environ 88 % des organisations déclarent utiliser l’IA de façon régulière, mais seulement 39 % constatent un impact économique significatif sur leurs résultats, mesuré en termes d’augmentation du bénéfice ou de l’EBIT.

En termes plus simples : presque tout le monde joue avec l’IA, mais très peu gagnent vraiment de l’argent grâce à elle.

Le rapport souligne aussi plusieurs patterns importants pour un secteur technologique :

  • La majorité des projets restent piégés dans ce qu’on pourrait appeler le “purgatoire du pilote” : POC brillants, démonstrations internes spectaculaires… sans déploiement à grande échelle.
  • Les “top performers” — moins de 10 % — ne se contentent pas d’automatiser des tâches : ils redessinent des processus complets et des modèles d’affaires autour de l’IA.
  • Les agents d’IA ( capables d’agir sur des systèmes, pas seulement générer du texte) apparaissent comme la prochaine vague, mais restent expérimentaux pour la majorité des organisations.

Parallèlement, les investissements dans l’infrastructure sont faits comme si tout le monde était déjà “top performer”. Et les chiffres ne coïncident pas.


3. La pièce ajoutée par Hinton : l’incitation à la substitution, pas à l’expansion

Geoffrey Hinton, l’un des pionniers du deep learning et lauréat du prix Turing, alerte depuis plusieurs mois sur un risque moins technique qu’économique : si l’infrastructure d’IA devient aussi coûteuse que le suggèrent certains calculs sectoriels, la tentation sera grande de justifier ces investissements par la substitution massive d’emplois humains, plutôt que par une amélioration incrémentale de la productivité.

Hinton ne parle pas seulement de scénarios apocalyptiques de “robots déchaînés”, mais d’un phénomène beaucoup plus prosaïque : la pression des marchés pour que ces investissements de trillions soient traduits en réductions de coûts salariaux, en dépit des discours corporate sur “l’IA pour autonomiser les employés”.

En langage commercial :

  • Si vous dépensez des milliards en GPU et centres de données, le “retour” en PowerPoint ne peut pas se limiter à “économiser 3 % de temps administratif”.
  • L’incitation structurelle pousse à automatiser des fonctions entières, et non à les assister.
  • Et cette incitation se renforce lorsque le coût énergétique et de refroidissement explose et que les régulateurs commencent à surveiller de près la consommation électrique de l’IA.

Ce mécanisme, connu dans d’autres secteurs, combine CAPEX colossal + pression sur les marges = décisions agressives concernant l’emploi. La différence aujourd’hui est que ce modèle s’applique à des infrastructures capables d’automatiser des tâches cognitives, pas seulement physiques.


4. Trois angles morts du discours “IA = efficacité”

Vu d’un secteur technologique, le réel problème n’est plus de savoir si le modèle fonctionne techniquement. Nous savons que les LLM et agents sont capables d’écrire du code, de générer des contrats, de résumer des réunions ou de surveiller des incidents. La véritable faiblesse réside dans la manière dont ces projets et architectures sont conçus :

  1. Efficacité sans reengineering des processus
    Beaucoup d’organisations utilisent l’IA comme un “moteur plus rapide” dans des processus qui étaient déjà mauvais. Automatisent la paperasserie redondante, les flux absurdes ou les décisions éparses. Résultat : des erreurs à plus grande vitesse, sans créer de nouvelles sources de revenus ni d’avantages compétitifs.
  2. Leadership déconnecté de la réalité technique
    McKinsey constate que les entreprises où la haute direction s’implique personnellement dans l’utilisation de l’IA ont jusqu’à 3 fois plus de chances de capter la valeur.
    Dans trop d’entreprises, l’IA reste “une affaire d’IT ou d’Innovation”, tandis que le comité exécutif signe des chèques gigantesques sans comprendre le modèle opérationnel nécessaire pour les rentabiliser.
  3. Infrastructure surdimensionnée pour des pilotes permanents
    Des plateformes, lagons de données et clusters GPU sont construits pour des cas d’usage massifs qui ne sortent jamais du laboratoire. Résultat : infrastructures sous-utilisées qui alourdissent le bilan, alors que les coûts de capital et d’énergie augmentent.

5. Que font ceux qui gagnent réellement de l’argent avec l’IA ?

Ce petit groupe d’entreprises qui parvient à générer des retours solides partage plusieurs choix stratégiques, particulièrement pertinents pour le public technique :

  • Agents avant simples chatbots
    Ils ne se limitent pas à des “chatbots mignons” : ils connectent des modèles à des systèmes métier (ERP, CRM, gestion de tickets, surveillance) avec des contrôles précis, un logging détaillé et des limites d’action. L’IA “fait des choses”, pas juste du texte.
  • Architecture pensée pour le TCO, pas seulement pour la démo
    Ils évaluent sérieusement l’alliance entre :
    • GPU on-prem ou colocation pour les charges récurrentes et prévisibles.
    • Cloud public pour les pics de demande et la R&D.
    • Modèles spécialisés plus petits et plus efficaces que de vastes LLM généralistes.
      L’objectif n’est pas d’avoir “le plus gros modèle”, mais le meilleur ratio valeur / watt / dollar.
  • Human-in-the-loop comme principe de conception
    Plutôt que d’autonomiser totalement, ils conçoivent des workflows où :
    • L’IA fait le boulot lourd (classification, rédaction, propositions, planification).
    • Des experts valident, corrigent, approuvent et réintroduisent une boucle dans le système.
      Cela réduit le risque d’hallucinations, augmente la qualité et accélère paradoxalement l’adoption car la confiance des utilisateurs est renforcée.
  • KPI alignés avec le business, pas avec la vanité technologique
    Le succès ne se mesure pas aux “nombre de prompts” ou “heures économisées”, mais à :
    • Génération de nouveaux revenus.
    • Amélioration des marges sur certains produits.
    • Diminution du churn, du temps de résolution, des erreurs critiques, etc.

6. Comment l’écosystème technologique devrait réagir

Pour un lecteur d’un média technologique — CIO, CTO, responsable plateforme ou architecte — le message laissé par IBM, Hinton et McKinsey n’est pas “arrêtez tout”, mais “ajustez votre plan avant que la vague vous submerge”. Voici quelques recommandations concrètes :

  • Ne pas surdimensionner l’infrastructure
    Avant d’envisager des clusters de centaines de GPU, il est plus judicieux :
    • Commencer par des modèles gestionnés et mesurer l’utilisation réelle.
    • Identifier les rares cas où l’on peut vraiment privilégier le on-prem ou le bare-metal (latence, souveraineté, coûts à long terme).
    • Concevoir une architecture hybride flexible, évitant de s’attacher à une seule stratégie.
  • Redéfinir les processus avec l’IA, pas simplement connecter l’IA à des processus existants
    Chaque fois qu’un cas d’usage apparaît, la question clé est : “Si nous avions eu cette capacité il y a 10 ans, aurions-nous conçu ce processus de la même manière ?”
    Sinon, c’est une opportunité d’ingénierie, pas seulement d’automatisation.
  • Protéger la valeur humaine comme un actif, non comme un coût résiduel
    Le talent capable de combiner sens métier et compréhension de l’IA (ingénieurs plateforme, MLOps, managers techniques, analystes expérimentés en données) est la seule garantie que ces investissements ne deviennent pas de simples projets “white elephants”.
  • Se préparer aux réglementations et à la facture énergétique
    Alors que les centres de données pour l’IA tirent la consommation électrique et la empreinte carbone, les régulateurs vont durcir les conditions. Ceux qui ignorent cette variable risquent de se retrouver avec des infrastructures restreintes ou pénalisées demain.

Un avenir de l’IA… qui doit pouvoir tenir dans Excel

La conclusion inconfortable est que le secteur construit une infrastructure d’IA à une échelle historique sans qu’un modèle économique viable ait encore été prouvé, Justifiant des investissements colossaux de l’ordre de 8 trillions de dollars en CAPEX à l’échelle mondiale.

Entre le rêve d’une superintelligence et le cauchemar des suppressions massives d’emplois, il existe un compromis : utiliser l’IA pour repenser le travail, et pas seulement pour réduire les coûts salariaux. Cela exige moins de slogans et plus de rigueur technique, moins de “hype” autour des data centers et plus d’ingénierie de processus.

Car, en fin de compte, la véritable limite de l’IA ne réside pas uniquement dans la puissance des circuits de dernière génération, mais dans quelque chose de beaucoup moins glamour : la viabilité financière.

Source : Noticias inteligencia artificial

le dernier