Le marché de l’Intelligence Artificielle vit depuis des mois au rythme de chiffres colossaux, mais aussi de nuances qui modifient la signification des titres. Le dernier épisode met en scène NVIDIA et OpenAI, dont l’alliance annoncée en 2025—avec un engagement parfois évoqué comme pouvant atteindre 100 milliards de dollars et lié à la fourniture d’une capacité de calcul « multigigawatt »—est aujourd’hui scrutée pour son manque de concrétisation et le scepticisme grandissant du côté des fournisseurs de matériel.
La clé ne réside pas uniquement dans le montant du chèque, mais dans le type d’infrastructure promis : une capacité électrique à échelle réseau, et non « un grand cluster ». Lorsqu’on parle en gigawatts, le business ne ressemble plus seulement à du logiciel : il devient une affaire d’énergie, de construction et d’industrie lourde.
Une annonce monumentale… avec des petits caractères
Le point de départ fut le communiqué conjoint publié en septembre 2025 : les deux sociétés annonçaient une « partenariat stratégique » pour déployer au moins 10 gigawatts de centres de données dédiés à l’IA avec des systèmes NVIDIA, « représentant des millions de GPUs », orientés vers la prochaine génération d’infrastructure d’OpenAI. Ce même communiqué précisait que le premier gigawatt serait mis en service dans la second semestre 2026 sur la plateforme NVIDIA Vera Rubin, avec une investissement prévu par NVIDIA qui serait augmenté « à mesure du déploiement de chaque gigawatt », jusqu’à un maximum indiqué de 100 milliards de dollars.
Sur le papier, cette architecture par phases semblait un mécanisme de gestion du risque : investissement lié à des jalons physiques. En pratique, la grande question est de savoir si la chaîne d’engagements — financement, leasing de systèmes, déploiement de capacité, contrats d’approvisionnement — peut être bouclée sans friction dans un marché en rapide évolution.
« En pause » selon WSJ : doutes chez NVIDIA etpression concurrentielle
Le tournant intervient avec une information du Wall Street Journal : le méga accord serait « en suspens » et avancerait bien moins vite que prévu. Le journal indique que des doutes ont émergé en interne chez NVIDIA quant à la faisabilité du projet et que, malgré l’attente d’un accord formel peu après l’annonce, les progrès seraient limités. Il est également précisé que le mémorandum n’était pas contraignant, un détail qui, à cette échelle, fait toute la différence entre « intention » et « contrat ».
Dans ce contexte, le journal ajoute un point sensible : la préoccupation supposée du PDG concernant la « discipline » de l’entreprise OpenAI et la pression de concurrents comme Anthropic ou Google. L’analyse industrielle de cet argument est moins émotionnelle qu’il n’y paraît : lorsque une infrastructure coûte des dizaines de milliards, le fournisseur doit pouvoir croire que le client dispose d’un plan solide pour monétiser le calcul qu’il va consommer.
Jensen Huang dément : « c’est absurde »
La réponse publique ne se fait pas attendre. Reuters rapporte que Jensen Huang a nié tout « mécontentement » vis-à-vis d’OpenAI et a qualifié d’absurdité l’idée qu’il y aurait un problème de confiance. Selon Reuters, il a réaffirmé son soutien à OpenAI et décrit l’investissement futur comme « énorme » et probablement le plus grand de l’histoire de NVIDIA, tout en précisant une limite : il ne dépasserait pas 100 milliards de dollars.
Cette divergence de version est courante à Silicon Valley : qu’un accord soit « en pause » contractuellement ne signifie pas forcément une rupture commerciale. NVIDIA peut continuer à être le fournisseur privilégié de systèmes tout en renégociant l’étendue financière ou le calendrier. Dans un marché où les grands laboratoires se battent pour la capacité et le talent, personne ne veut apparaître comme celui qui coupe l’accès sans alternative claire.
Le vrai problème : signer des gigawatts dans une industrie qui peine encore à rentabiliser
Le débat possède une couche technique et une couche business. La première est connue : entraîner et déployer des modèles de pointe demande des quantités de calcul qui, en termes énergétiques, se rapprochent d’une capacité urbaine. La seconde, plus inconfortable, concerne la viabilité commerciale : combien de temps peut-on soutenir une stratégie d’expansion si le retour économique dépend du paiement de millions d’utilisateurs et d’entreprises pour l’inférence, les API, les licences et autres services ?
Ce qui rejoint l’évocation de la « discipline » mentionnée par le WSJ : pas en tant que jugement moral, mais comme exigence en ingénierie financière. Plus les investissements en CAPEX, plus la demande, la tarification et les marges doivent être prévisibles. Et si les concurrents jouent la carte de produits alternatifs et de modèles tarifaires agressifs, l’investissement dans l’infrastructure cesse d’être une simple course technologique pour devenir une bataille de cash-flows.
Publicité dans ChatGPT : un signe que la monétisation devient centrale
Parallèlement, OpenAI a lancé un mouvement qui illustre cette pression : son projet pour tester la publicité aux États-Unis auprès d’utilisateurs adultes dans les versions gratuite et ChatGPT Go, avec des annonces clairement identifiées à la fin de certaines réponses lorsque celles-ci revêtent une pertinence pour la conversation. La société souligne qu’« actuellement, il n’y a pas d’annonces » sur ChatGPT, mais elle commencera des tests internes et progressifs.
Pour un média tech, cette information n’est pas une évolution cosmétique, mais une indication : même le produit le plus massif du secteur cherche des sources additionnelles pour couvrir le coût du calcul. Et ce coût est précisément l’enjeu central de tout accord « multigigawatt » avec un fournisseur comme NVIDIA.
Une alliance susceptible de s’adapter, pas nécessairement de se briser
À la lumière de ce qui a été publié, le scénario le plus probable n’est pas une rupture, mais une recalibration. La conception même de l’annonce de 2025 était modulaire : investissement progressif par gigawatt et un premier jalon en 2026 avec Vera Rubin. Cela permet d’ajuster le rythme et l’étendue sans déliter la narration d’une « alliance stratégique ».
Ce qui change, c’est le ton du marché. En 2023 et 2024, le débat portait sur « combien de GPUs sont encore disponibles ». En 2026, il s’agit de « qui peut payer et rentabiliser une usine d’IA évaluée en gigawatts ». Et lorsque cette question entre dans la salle, la négociation devient moins une fête de promesses et plus un exercice de contrats, jalons, garanties et crédibilité commerciale.
Questions fréquentes
Que signifie que l’accord NVIDIA–OpenAI soit « non contraignant » et pourquoi est-ce important ?
Il reflète une intention et un cadre de collaboration, sans engager formellement à réaliser des investissements ou des déploiements dans les conditions précisées, tant qu’un contrat définitif n’est pas signé.
Pourquoi un accord autour de l’IA se mesure-t-il en gigawatts plutôt qu’en nombre de GPUs ?
Parce que la limite ne réside plus seulement dans le processeur : elle concerne la capacité du centre de données (énergie, refroidissement, réseau, infrastructure) à supporter des entraînements et inférences à grande échelle.
Quel rôle joue la plateforme NVIDIA Vera Rubin dans cette histoire ?
D’après les communiqués officiels, c’est la plateforme prévue pour déployer le premier gigawatt de systèmes d’ici la seconde moitié de 2026, marquant ainsi le premier jalon industriel significatif de l’accord.
Que révèle la publicité dans ChatGPT sur l’économie de l’IA ?
Que la monétisation devient une préoccupation centrale : assurer la pérennité des services IA massifs implique des coûts énergétiques très élevés, et explorer de nouvelles sources de revenus est essentiel pour maintenir un accès gratuit ou bon marché.