Le graphique publié par le Financial Times sur l’écosystème d’OpenAI fonctionne presque comme une radiographie du pouvoir à l’ère de l’intelligence artificielle. Il dévoile un réseau complexe où se mêlent des noms comme Microsoft, NVIDIA, Google, Amazon, Meta, Oracle, SoftBank, Broadcom ou CoreWeave, connectés par des flèches représentant des investissements croisés, des contrats de calcul, des accords sur les centres de données et le développement de puces.
Ce que montre cette cartographie est simple à résumer mais difficile à accepter : l’IA n’est plus un simple « secteur » de l’économie numérique, mais un système hyperconnecté où quelques entreprises maîtrisent l’infrastructure critique pour le reste du monde.
De l’euphorie aux risques partagés
Ces dernières années, le marché a applaudi toute annonce liée à l’IA : nouveaux modèles, plus de puissance de calcul, alliances stratégiques majeures. Cependant, les grosses paris de Sam Altman et d’autres dirigeants du secteur ne sont plus uniquement perçus comme des promesses de croissance, mais aussi comme des sources de vulnérabilité.
La raison réside dans ce réseau de dépendances :
- OpenAI nécessite des quantités énormes de GPU de NVIDIA et une électricité à faible coût pour entraîner des modèles de plus en plus sophistiqués.
- Microsoft fournit le cloud et le capital, tout en dépendant de l’approvisionnement en puces NVIDIA et de la capacité de ses propres centres de données.
- Oracle, Amazon, Google, Meta ou de nouveaux acteurs comme CoreWeave rivalisent pour la même ressource rare : une infrastructure énergétique et de calcul à l’échelle planétaire.
Lorsque tous s’appuient sur les mêmes fournisseurs de puces, les mêmes grands contrats d’énergie et les mêmes constructeurs de centres de données, chaque nouvelle expansion augmente non seulement le potentiel économique, mais aussi le risque qu’une défaillance se propage dans toute la chaîne.
Ce parallélisme avec le secteur financier est inévitable : tout comme en 2008, où les banques ont découvert qu’elles partageaient trop de risques occultes, la cartographie de l’IA suggère qu’une interruption dans la chaîne d’approvisionnement des GPU, un problème réglementaire majeur ou une crise énergétique pourraient affecter massivement l’ensemble de l’écosystème.
Calcul, énergie et dette : le nouveau triangle de la dépendance
Le engouement pour l’IA générative a poussé les grandes entreprises technologiques à annoncer des investissements massifs dans des infrastructures de centaines de milliards de dollars pour cette décennie. Une grande partie de ces dépenses se concentre sur trois axes principaux :
- Calcul : acquisition massive de GPU et d’accélérateurs spécialisés, conçus par NVIDIA, AMD ou d’autres fabricants.
- Énergie : contrats à long terme pour garantir une électricité abondante et, idéalement, renouvelable, face à la hausse de la consommation des centres de données.
- Centres de données et interconnexion : construction de campus massifs et réseaux de fibre haute capacité pour transférer données et modèles entre régions.
À cela s’ajoutent des composants financiers : dette d’entreprises, accords de financement externe et véhicules d’investissement publics-privés pour soutenir cette nouvelle vague d’infrastructures. La conséquence est que le même réseau qui promet d’accélérer la productivité globale concentre aussi des risques économiques, énergétiques et technologiques dans très peu de nœuds.
L’Europe : d’une puissance industrielle perdue à un client captif
Si la carte de l’IA dessine un système en surchauffe principalement contrôlé par des acteurs américains (et dans une moindre mesure asiatiques), la position de l’Europe apparaît plutôt en marge.
Pendant des décennies, le continent disposait d’une base industrielle électronique forte. Des entreprises comme Philips géraient presque toute la chaîne de valeur, depuis les composants jusqu’aux produits de consommation. Aujourd’hui, cette structure est fragmentée ou a disparu.
ASML est devenu un champion mondial incontournable dans la lithographie pour la fabrication de puces avancées, mais son activité dépend majoritairement de clients non européens, et l’Union européenne manque de fonderies capables de produire selon les normes les plus avancées. La fabrication de semi-conducteurs dernier cri est concentrée à Taïwan (TSMC) ou en Corée du Sud (Samsung), sous forte influence géopolitique des États-Unis.
L’UE a réagi avec le Chips Act et, plus récemment, avec une proposition d’un « Chips Act 2.0 ». Cependant, les auditeurs européens ont souligné que les objectifs fixés — atteindre 20 % de la production mondiale de puces d’ici 2030 — sont peu réalistes dans l’état actuel, faute de coordination financière et de masse critique industrielle.
Simultanément, une grande partie de l’infrastructure cloud et IA utilisée par les entreprises et administrations européennes repose sur des plateformes américaines : AWS, Microsoft Azure, Google Cloud ou des clouds hybrides associés à ces fournisseurs. L’Europe consomme donc l’IA comme un service, plutôt que de construire sa propre architecture technologique intégrale.
Une fracture en talent et en ambition
Face à cette faiblesse industrielle, la pénurie de talents ajoute une barrière supplémentaire. L’Europe forme des chercheurs de haut niveau dans des domaines comme le machine learning, la physique ou la science des matériaux, mais peine à retenir ces profils dans ses propres projets industriels.
Alors que les États-Unis et la Chine bâtissent des entreprises capables de concevoir des puces, architectures globales et services mondiaux, en Europe, abondent les laboratoires d’excellence et les startups prometteuses… mais qui finissent souvent par être rachetées ou dépendantes d’infrastructures externes pour se développer.
Sans fonderie avancée, sans fabricants de GPU compétitifs et sans un tissu industriel prêt à prendre des risques à long terme, le continent risque de rester dans un rôle de simple client et régulateur, plutôt que de devenir un acteur principal.
Est-il trop tard pour réagir ?
Ce constat est sévère, mais pas forcément fatal. Justement parce que l’IA oblige à repenser l’infrastructure mondiale, une fenêtre — étroite, mais réelle — s’ouvre pour que l’Europe redonne une partie de son autonomie technologique.
Parmi les pistes déjà discutées à Bruxelles et dans plusieurs gouvernements, on peut citer :
- Renforcer des centres de données et supercalculateurs souverains qui privilégient l’énergie renouvelable, la récupération de chaleur et un accès ouvert aux universités, entreprises et administrations.
- Soutenir le matériel spécialisé ouvert, comme architectures RISC-V ou accélérateurs conçus en Europe pour des usages spécifiques (IA en périphérie, cryptographie post-quantique, simulation scientifique).
- Créer des consortiums public-privé rassemblant universités, PME et grands acteurs industriels pour concevoir et exploiter des modèles foundation entraînés et hébergés dans des infrastructures européennes.
- Recentrer le Chips Act sur des objectifs de sécurisation de technologies clés : emballages avancés, nodaux spécifiques pour l’IA à faible consommation, composants pour communications quantiques, etc.
La France, avec son mélange d’énergie renouvelable compétitive, sa position géographique stratégique et son écosystème croissant de centres de données, pourrait jouer un rôle important dans cette nouvelle phase, à condition d’établir une stratégie cohérente : politiques énergétiques stables, incitations pour attirer des projets de supercalculateurs, de clouds privés haute capacité et de fabricants émergents de matériel.
Le véritable point de bascule
Le graphique du Financial Times ne montre pas seulement qui mène aujourd’hui la course à l’IA, mais aussi quel type de système se construit : un où calcul, énergie, financement et données sont si concentrés que la moindre défaillance dans une pièce peut faire vaciller l’ensemble.
La question n’est plus de savoir quel modèle de langage sera le plus puissant dans deux ans, mais qui contrôlera l’infrastructure qui les rend possibles et comment le pouvoir sera réparti lorsque gouvernements, entreprises et citoyens dépendront du même risque systémique.
Si l’Europe se limite à consommer des services d’IA externalisés, elle assumera ce risque sans réelle capacité d’y influencer la dynamique. En revanche, si elle mise sur des architectures plus ouvertes, des infrastructures souveraines et une politique industrielle ambitieuse, elle pourrait encore préserver une marge d’autonomie dans un jeu aujourd’hui apparemment dominé… mais pas totalement verrouillé.