L’engouement pour l’investissement dans l’intelligence artificielle envahit le monde avec des projets de mégapoles de données alimentées par des GPU, des puces spécialisées et des centaines de mégawatts de puissance électrique. Cependant, selon le PDG d’IBM, Arvind Krishna, ces investissements ne sont pas viables économiquement. Il exprime cette réalité avec une franchise peu courante dans un secteur habitué à promettre des retours quasi infinis.
Lors d’une conversation dans le podcast Decoder de The Verge, Krishna prévient que la déploiement actuel d’infrastructures pour des modèles d’IA de pointe — ceux visant l’intelligence artificielle générale (AGI) — pourrait simplement devenir insoutenable d’un point de vue financier.
Son calcul est simple : si l’industrie s’engage dans un effort estimé à environ 8 000 milliards de dollars pour des centres de données dédiés à l’IA, il faudrait un bénéfice annuel de l’ordre de 800 milliards de dollars juste pour couvrir le coût du capital. « Il n’y a aucune chance que cela génère un retour sur investissement », résume le dirigeant.
80 milliards pour équiper un centre de 1 GW
Le point de départ d’Arvind Krishna, PDG d’IBM, est le coût d’équipement d’un centre de données de nouvelle génération, conçu uniquement pour des charges d’IA à grande échelle. Selon ses estimations, remplir un campus d’1 gigawatt — l’équivalent d’une ville moyenne — avec du matériel représente environ 80 milliards de dollars en accélérateurs, serveurs, réseaux et systèmes de refroidissement.
Le problème est que les grandes entreprises technologiques ne parlent plus d’un seul gigawatt. Krishna rappelle que certains acteurs majeurs de l’IA planifient en interne des investissements compris entre 20 et 30 gigawatts dans les années à venir. Cela seul ferait grimper l’investissement à environ 1,5 billion de dollars.
En combinant annonces publiques et chiffres circulant dans le secteur, le dirigeant estime que la capacité totale planifiée pour des charges de type « AGI » avoisine les 100 gigawatts. Ce chiffre ne met pas seulement à rude épreuve le réseau électrique, mais remet aussi en question toute logique de rentabilité raisonnable.
Amortissement accéléré : cinq ans pour « déployer et renouveler »
Au-delà du chiffre des trillions, Krishna met en avant un aspect souvent sous-estimé : l’amortissement des puces d’IA.
En pratique, les accélérateurs majeurs s’amortissent en environ cinq ans. Toutefois, la rapidité d’apparition des nouvelles générations — avec des gains de performance considérables — rend difficile de prolonger leur cycle de vie au-delà de cette période sans se faire dépasser par la concurrence.
La conclusion du CEO est sans appel : chaque cycle nécessite de « renouveler » (d’un point de vue comptable et stratégique) une grande partie du matériel installé, pour le remplacer par du neuf. Dans un contexte où les investissements atteignent des milliers de milliards, cette cadence de renouvellement implique un coût de capital annuel qui ne pourrait être soutenu qu’avec des bénéfices exceptionnellement stables et importants, ce qui reste incertain dans un marché encore immature.
L’implication pour l’AGI et la pression sur les géants du cloud
Les avertissements du PDG d’IBM interviennent à un moment où de grandes entreprises d’IA et de cloud cherchent à prouver qui sera capable de former et de déployer les modèles les plus puissants du marché.
Simultanément, gouvernements et fonds d’investissement soutiennent des « usines d’IA » de dizaines de gigawatts, avec l’espoir de parvenir à une AGI qui, selon leurs promoteurs, générerait une explosion de productivité sans précédent. Mais jusqu’à présent, une grande partie de ces revenus futurs restent plus une promesse qu’une réalité concrète.
Krishna insiste sur le fait que beaucoup de ces plans reposent sur des hypothèses très optimistes en matière de prix par token, de demande soutenue et de coûts énergétiques relativement maîtrisés. Si une seule de ces variables déviait — en raison d’une saturation de l’offre, de régulations, de limites physiques du réseau électrique ou de l’opposition sociale aux nouvelles infrastructures — le retour sur investissement pourrait s’effondrer.
Son message s’adresse principalement aux hyperscalers, ces grandes plateformes de cloud et de services numériques, pour leur rappeler que la course à la taille peut se transformer en piège si elle ne s’accompagne pas d’un modèle économique solide.
Moins de béton, plus d’efficacité ?
Le scepticisme d’Arvind Krishna ne consiste pas à rejeter l’IA, mais à remettre en question le modèle actuel de croissance fondé sur une accumulation incessante de racks. Son intervention s’inscrit dans un débat qui commence à prendre de l’ampleur dans le secteur : jusqu’où est-il pertinent de continuer à augmenter la capacité uniquement en multipliant chips et mégawatts, plutôt que d’optimiser l’utilisation de l’infrastructure existante ?
Plusieurs axes de réflexion se dessinent : optimisation logicielle, architectures plus efficaces, nouvelles générations de puces spécialisées ou encore stratégies de mutualisation des ressources entre entreprises et pour différentes charges.
Ce débat recoupe aussi la préoccupation croissante concernant la empreinte énergétique et hydrique des centres de données dédiés à l’IA, ainsi que leur capacité réelle à absorber des dizaines de gigawatts supplémentaires consacrés à des calculs qui, dans beaucoup de cas, cherchent encore leur équilibre économique et social.
Une mise en garde pour le marché
Les propos de Krishna ne constituent pas un diagnostic définitif — les prévisions technologiques à long terme étant rarement exactes — mais ils agissent comme un signal d’alerte pour les investisseurs, régulateurs et dirigeants.
Si les chiffres évoqués aujourd’hui se matérialisent sans changements fondamentaux en termes d’efficience, de modèles économiques et de régulation, l’industrie risque de se retrouver, dans quelques années, avec une montagne d’actifs difficiles à rentabiliser, alors que la pression sociale et politique sur l’impact de l’IA ne cessera de croître.
Dans un contexte où l’on annonce presque quotidiennement de nouveaux projets de mégacentres de données ou des investissements massifs dans des puces, la mise en garde d’un acteur aussi emblématique qu’IBM contre une course effrénée, en insistant sur la nécessité que les chiffres soient compatibles avec la réalité économique, est une indication claire que la durabilité — économique comme énergétique — de l’IA de masse est un enjeu majeur à prendre en compte.