Utiliser l’intelligence artificielle est devenu extrêmement simple. Il suffit d’ouvrir une application, d’écrire une requête et d’attendre quelques secondes. De l’extérieur, cela ressemble presque à un acte trivial : un prompt entre, une réponse sort. Mais cette apparente légèreté cache une réalité industrielle bien plus lourde, coûteuse et complexe. Derrière chaque requête se trouvent des centres de données, des réseaux, de l’électricité, de la refroidissement, des puces spécialisées et des milliards de dollars d’investissement que personne ne déploie par pur amour de la technologie.
La démocratisation de l’IA générative a créé une illusion dangereuse : que l’accès est bon marché parce que le geste de l’utilisateur l’est aussi. Mais le fait qu’un prompt soit confortable ne signifie pas que son coût structurel soit négligeable. L’Agence Internationale de l’Énergie estime que la demande électrique des centres de données est passée d’environ 485 TWh en 2025 à une trajectoire vers 950 TWh en 2030, et que la consommation des centres de données axés sur l’IA a augmenté de 50 % rien qu’en 2025. Ce n’est pas une simple anecdote technologique, mais une nouvelle couche industrielle ayant un impact direct sur les réseaux électriques, les investissements et les marges.
Le problème n’est pas le prompt, mais l’échelle
Il est utile de nuancer une idée souvent exagérée sur les réseaux sociaux. Toutes les requêtes individuelles ne consomment pas une quantité astronomique d’énergie à elles seules. Epoch AI a estimé en 2025 qu’une requête typique à ChatGPT avec GPT-4 tournait autour de 0,3 Wh, bien en dessous de certaines estimations anciennes qui avaient circulé pendant des mois. D’autres analyses plus récentes indiquent que le coût énergétique par requête reste dans une fourchette de quelques watt-heures selon le modèle, la longueur de la requête et l’infrastructure utilisée. Le vrai problème, ce n’est pas tant le geste unitaire, mais l’usage à grande échelle et de façon soutenue.
Cela change complètement la perspective. Lorsqu’un outil passe de traiter des milliers de requêtes à en traiter des centaines de millions ou des milliards, le coût par demande cesse d’être une curiosité académique pour devenir une variable critique pour l’entreprise. L’IEA souligne que l’IA est déjà le moteur principal de la croissance de la consommation électrique des centres de données, et que les États-Unis et la Chine concentreront près de 80 % de cette croissance mondiale d’ici 2030, tandis que l’Europe poursuivra également sa croissance de manière significative.
C’est pourquoi la compétition ne se joue plus uniquement sur les modèles, mais sur l’infrastructure capable de les soutenir. Andy Jassy, PDG d’Amazon, expliquait dans sa lettre aux actionnaires en 2025 que l’entreprise prévoit d’investir environ 200 milliards de dollars en capex en 2026, dont une grande partie liée à AWS et à la demande en IA. Microsoft a déclaré en janvier 2026 un investissement trimestriel en capital de 37,5 milliards de dollars, dont environ deux tiers consacrés à des actifs à durée de vie courte comme les GPU et CPU. De son côté, Alphabet a prévu pour 2026 un capex compris entre 175 et 185 milliards de dollars, principalement pour l’infrastructure technique liée à l’IA.
Une industrie gigantesque déguisée en simplicité
La popularisation de l’IA a été en grande partie un mirage visuel. L’utilisateur voit une interface épurée et une zone de texte. L’opérateur voit autre chose : disponibilité de l’énergie, réseaux à haute vitesse, chaînes d’approvisionnement en puces, refroidissement liquide, contrats à long terme et planification de capacité. La différence entre ces deux visions explique pourquoi le marché finira par s’ajuster : aucune entreprise n’investit des centaines de milliards pour offrir une capacité indéfinie en cadeau.
Dans le secteur de l’infrastructure cloud, cette tension est particulièrement visible. Dans une analyse récente sur l’IA et l’architecture, David Carrero, cofondateur de Stackscale (Groupe Aire), le résumait ainsi : « L’IA met à l’épreuve l’architecture à ses points les plus fragiles : le coût par usage, la latence et le contrôle. Lorsque l’inférence devient quotidienne et critique, il faut de la prévisibilité et des capacités de gouvernance, pas seulement de la rapidité pour lancer un pilote. »
Cette phrase a plus de fond qu’il n’y paraît. Pendant la phase initiale d’enthousiasme, de nombreuses entreprises ont supposé qu’il suffisait de connecter des modèles, de lancer des tests et de croître. Mais l’inférence quotidienne, les systèmes RAG, la traçabilité, les boucles de rétroaction et l’intégration dans des environnements critiques transforment l’IA en une charge structurale, pas en un simple gadget expérimental. Et quand cela se produit, le coût cesse d’être une ligne abstraite de facturation pour devenir une décision architecturale.
L’énergie, les GPU et les centres de données : le vrai goulot d’étranglement
L’autre limite majeure est physique. Carrero a souligné dans une autre analyse sur les centres de données que les racks d’IA peuvent déjà dépasser 70-80 kW par rack, bien au-delà de ce qui était habituel dans les environnements traditionnels, ce qui impose de repenser la distribution électrique, l’alimentation et la refroidissement. Il indiquait également qu’où l’on trouvait auparavant des densités de 10-15 kW, le marché évolue vers plus de 40 kW par rack dans certains déploiements. Rien ne se résout simplement par un logiciel.
L’IEA renforce cette lecture avec des chiffres globaux : dans leur scénario de base, l’électricité nécessaire pour alimenter les centres de données passera de 460 TWh en 2024 à plus de 1 000 TWh en 2030. La quasi-totalité de cette augmentation sera couverte par des énergies renouvelables, bien que le gaz, le charbon et le nucléaire jouent aussi un rôle clé. En clair : l’IA pousse à une expansion industrielle qui ne peut être dissociée du débat énergétique.
À cela s’ajoute la bataille pour la localisation. Les États-Unis restent en tête en volume, la Chine en rapidité de croissance, tandis que l’Europe cherche à renforcer sa capacité tout en conservant sa souveraineté, ses coûts et sa réglementation. Dans cette logique, l’IA ressemble moins à une application qu’à une industrie intensive en capital, comparable à d’autres révolutions technologiques où la compétition commence par la construction et se termine par la monétisation.
La monétisation sérieuse n’est pas encore totalement arrivée
C’est probablement le point essentiel. Une grande partie du marché investit encore en vue de se positionner, d’acquérir des parts de marché futures et d’accroître l’effet de taille. Mais ce cycle n’est pas infini. L’histoire de la technologie tend à se répéter : d’abord une phase d’expansion agressive, suivie d’une pression pour démontrer un retour sur investissement. Et quand il faut réellement monétiser, les prix changent, les priorités évoluent et la tolérance à certaines utilisations peu rentables diminue.
Cela ne signifie pas que l’IA va s’arrêter ou que le modèle actuel est voué à l’échec immédiat. Cela indique simplement que le marché commencera à discriminer entre les usages à forte valeur ajoutée et la consommation triviale, entre les pilotes spectaculaires et les déploiements durables. Ce qui semble aujourd’hui une magie bon marché pourrait bientôt ressembler à une utilité numérique coûteuse, régulée par les coûts énergétiques, les engagements de capacité et des modèles d’affaires beaucoup plus stricts.
Dans ce processus, l’IA continuera de croître. Mais elle apparaîtra progressivement moins comme quelque chose de gratuit.
Questions fréquentes
Un prompt d’IA consomme-t-il beaucoup d’énergie à lui seul ?
Pas nécessairement. Certaines estimations récentes, comme celle d’Epoch AI pour GPT-4, situent une requête typique autour de 0,3 Wh. Le problème n’est pas tant le prompt individuel que le volume massif d’usage et l’infrastructure nécessaire pour le soutenir.
Pourquoi dit-on que l’IA n’est pas de la magie, mais de l’infrastructure ?
Parce que derrière chaque service d’IA se trouvent des centres de données, des GPU, des réseaux, de l’électricité, de la refroidissement et des milliards d’investissements. Les grands fournisseurs dépensent des montants records pour augmenter leur capacité.
Quelle est la croissance du consommation électrique liée à l’IA ?
L’IEA estime que la consommation électrique totale des centres de données a augmenté de 17 % en 2025 et que celle des centres axés sur l’IA a crû de 50 % la même année. De plus, elle projette que la demande globale des centres de données sera presque doublée d’ici 2030.
Quel rôle jouent l’infrastructure privée ou hybride dans ce contexte ?
Selon David Carrero, cofondateur de Stackscale, lorsque l’inférence devient quotidienne et critique, des variables telles que le coût par usage, la latence et le contrôle prennent une importance croissante, ce qui pousse à l’intérêt pour des architectures privées et hybrides pour certains usages de l’IA.