La bulle de l’IA selon Pat Gelsinger : OpenAI court contre la montre tandis que l’informatique quantique se profile

La bulle de l'IA selon Pat Gelsinger : OpenAI court contre la montre tandis que l'informatique quantique se profile

Une étrange sensation s’est installée à Silicon Valley : tout va mieux que jamais… et en même temps, tout pourrait s’effondrer avant que les grands acteurs aient terminé de positionner leurs pièces. Les récentes déclarations de Pat Gelsinger, ancien CEO d’Intel, ainsi que l’analyse publiée par Xataka sur la feuille de route d’OpenAI esquissent un même scénario : nous sommes en plein dans une bulle de l’IA, et le véritable problème ne réside pas dans l’existence de cette bulle, mais dans sa durabilité : combien de temps tiendra-t-elle avant d’éclater, et qui en sortira indemne ?

Gelsinger : l’informatique quantique pourrait « faire sauter » la fête en deux ans

Dans une interview accordée au Financial Times, Pat Gelsinger a évoqué deux idées qui ont rapidement fait le tour de l’industrie :

  1. La computing quantique pourrait progresser beaucoup plus vite que ce que l’on suppose publiquement.
  2. Ce progrès pourrait faire éclater la bulle de l’IA en seulement quelques années.

Cela contraste fortement avec les discours plus prudents d’autres leaders du secteur. Jensen Huang, CEO de NVIDIA, parle d’un horizon d’environ vingt ans avant que la quantique ne devienne une technologie de masse. En revanche, Gelsinger suggère que certains jalons cruciaux pourraient être atteints dans un délai beaucoup plus court, suffisant pour remettre en question le modèle actuel basé sur des GPU et TPU à grande échelle.

Si cette hypothèse se concrétise, le marché qui alimente aujourd’hui d’importants investissements dans des centres de données, des microprocesseurs polyvalents et des modèles d’IA générative pourrait devoir être remanié brutalement, avec de nombreuses entreprises coincées à mi-chemin dans des projets d’infrastructure qui nécessitent des années pour être rentables.

« Sam Altman utilise Microsoft comme Microsoft a utilisé IBM »

L’autre commentaire de Gelsinger vise la relation entre OpenAI et Microsoft. L’ancien CEO d’Intel compare le mouvement de Sam Altman à la stratégie historique de Bill Gates face à IBM : maîtriser le « savoir-faire », les logiciels et la valeur ajoutée, tandis qu’un autre prend en charge la plateforme et la distribution.

Dans cette optique :

  • OpenAI serait l’équivalent de Microsoft dans les années 80 : détenteur de la propriété intellectuelle critique (modèles, produits, marque).
  • Microsoft serait le « nouvel IBM » : apportant le cloud, l’infrastructure de calcul et la puissance financière.

La différence aujourd’hui est que l’échelle est vertigineuse : on parle de dizaines voire centaines de milliards de dollars investis dans les puces, centres de données et énergie, avec un impact systémique sur toute la chaîne technologique, des fabricants comme NVIDIA, AMD et Intel aux grands fournisseurs de cloud.

La question implicite est délicate : si l’IA subit un ralentissement brutal, qui supportera le coût infrastructurel et qui sera assez résilient pour survivre ?

OpenAI : une course contre la montre pour devenir indépendant

L’analyse de Xataka sur le mémo interne de Sam Altman apporte un contexte supplémentaire : selon ce document, le CEO d’OpenAI reconnaît que Google se rapproche technologiquement avec Gemini 3, dans des domaines clés comme la génération de code ou la conception web automatisée.

Mais le véritable enjeu n’est pas simplement de perdre temporairement du leadership technique, c’est surtout une question de dépendance extrême à des tiers.

  • OpenAI dépend de Microsoft Azure (et désormais aussi d’accords avec Oracle et autres partenaires) pour ses centres de données.
  • Elle dépend de NVIDIA et d’autres fabricants pour obtenir des GPU sur un marché tendu.
  • Elle dépend d’investisseurs externes pour financer une stratégie nécessitant de dépenser plusieurs dizaines de milliards de dollars en R&D et infrastructures en quelques années.

Le plan à long terme est de construire sa propre infrastructure : puces, centres de données et économies d’échelle. C’est la seule façon pour elle de rivaliser en coûts avec des géants intégrés comme Google, qui dispose déjà de ses TPU et génère plusieurs milliards d’euros de revenus annuels grâce à ses activités consolidées comme la recherche et YouTube.

La parabole du timing : où l’on arrive au bout du pont, ou on tombe

La métaphore choisie par Xataka est claire : construire un pont. Peu importe combien d’argent on y a investi si on ne parvient qu’à la moitié :

  • Si l’investissement dans l’IA s’arrête en 2026 ou 2027, OpenAI risquera de rester à mi-chemin : une infrastructure en place, mais pas encore suffisamment indépendante pour rivaliser en coûts.
  • Si la bulle dure jusqu’en 2030 ou au-delà, l’entreprise pourra finir de construire son pont : développer ses propres puces, déployer des centres de données à grande échelle, et réduire drastiquement le coût marginal par requête.

En résumé : OpenAI ne se contente pas de rivaliser pour créer le meilleur modèle, elle doit aussi respecter un calendrier : celui de l’éclatement de la bulle IA.

Pas de « fossé défensif » technologique : le coût comme seul refuge

Un autre point clé de l’analyse concerne l’absence d’un véritable « fossé défensif » technologique. En IA générative :

  • Chaque fois qu’un laboratoire propose une amélioration, les autres la reproduisent en quelques mois.
  • Les modèles pionniers d’aujourd’hui deviennent rapidement égalés ou dépassés après une ou deux itérations concurrentes.

Cela signifie que l’avantage durable ne réside pas tant dans l’idée que dans l’infrastructure :

  • Celui qui contrôle les puces et les centres de données maîtrise le coût par token.
  • Celui qui offre une qualité comparable à un prix bien inférieur domine le marché à moyen terme.

Pour Google, avec un modèle ultra rentable, il est plus facile de supporter plusieurs cycles d’investissement intensifs. OpenAI, en revanche, mise tout sur cette transition, passant d’un « client coûteux » à un « propriétaire de sa propre chaîne de valeur ».

Et si la bulle éclate prématurément ?

La vision combinée de Gelsinger et l’analyse de la situation d’OpenAI soulèvent plusieurs incertitudes :

  • Si la computing quantique accélère abruptement, comme le prévoit l’ancien CEO d’Intel, cela pourrait remettre en question le modèle de calcul actuel avant que de nombreux projets aient eu le temps d’être amortis.
  • Si l’investissement dans l’IA se ralentit suite à une saturation du marché, des réglementations ou à un manque de retours clairs, certains acteurs fortunés (Google, Microsoft, peut-être Amazon) pourront continuer, mais d’autres risquent de se retrouver sans ressources.

Paradoxalement, OpenAI semble vivre dans cette tension constante : d’un côté, gonfler la bulle — en montrant que le marché croît rapidement — et de l’autre, craindre l’éclatement prématuré, avant d’avoir atteint une autosuffisance infrastructurelle.

Une décennie cruciale pour la computation… et pour les fonds qui la soutiennent

Pat Gelsinger conclut en évoquant une « trinité » de la computation : classique, quantique et intelligence artificielle, chacune jouant un rôle dans le progrès humain. Plus que cette vision presque philosophique, un message clair se dégage : les règles du jeu pourraient changer avant que l’industrie ne l’admette officiellement.

Pendant ce temps, OpenAI, Google, Microsoft, NVIDIA et autres avancent à toute vitesse sur un terrain encore en pleine construction. Si Gelsinger a raison sur ses délais, dans quelques années, nous saurons si la bulle de l’IA a permis de bâtir une nouvelle couche durable d’infrastructure… ou si elle n’a été qu’un pont à moitié construit sur un vide extrêmement coûteux.

Sources : FT.com, elchapuzasinformatico et xataka

le dernier