Nvidia mise sur la photonique : la lumière clé dans les centres de données d’IA de nouvelle génération

Nvidia mise sur la photonique : la lumière clé dans les centres de données d'IA de nouvelle génération

La révolution de l’intelligence artificielle ne se limite pas à la puissance des puces capables d’entraîner des modèles toujours plus grands. Elle se mesure également à la capacité de connecter des dizaines de milliers de GPU comme s’ils formaient un seul cerveau numérique. À cette étape cruciale, Nvidia a pris une initiative décisive : intégrer la lumière comme moyen de communication dans ses infrastructures de centres de données. Selon ses plans, à partir de 2026, la photonic siliconique et les optiques coemballées (CPO) passeront du statut d’innovation prometteuse à une exigence fondamentale pour la nouvelle génération d’infrastructures IA.

Lors de la conférence Hot Chips 2025, Nvidia a clairement affiché sa vision : les futurs commutateurs Quantum-X, InfiniBand et la plateforme Spectrum-X Photonics pour Ethernet inaugurent une nouvelle ère de l’interconnexion GPU où les câbles en cuivre deviendront obsolètes, remplacés par la lumière qui offrira rapidité, efficacité et fiabilité.

Dans les grands clusters d’IA, des milliers de GPU doivent fonctionner comme une seule entité. Cela nécessite que les échanges de données soient presque instantanés, avec des taux de transfert qui n’avaient jamais été atteints jusqu’à présent. Le modèle traditionnel, reposant sur des câbles en cuivre et des modules optiques en plug-in, montre ses limites : à 800 Gb/s, les pertes électriques peuvent atteindre 22 décibels dans des canaux de 200 Gb/s, ce qui oblige à recourir à des circuits de compensation qui augmentent la consommation par port jusqu’à 30 W, générant chaleur, complexité et risques de défaillance.

Avec la CPO, cette approche évolue : le moteur optique est intégré directement à côté de l’ASIC du switch. La conversion du signal électrique en lumière se produit presque instantanément, réduisant les pertes à seulement 4 décibels et faisant baisser la consommation par port à 9 W. Nvidia estime qu’avec cette technologie, l’efficacité énergétique pourrait être multipliée par 3,5, la fidélité du signal améliorée de 64 fois, la résilience accrue de 10 fois, et le déploiement accéléré de 30 %, grâce à une architecture plus simple à installer et maintenir.

Nvidia n’avance pas seule dans cette transition. Son plan s’aligne de près avec l’évolution du programme COUPE de TSMC, destiné à développer des moteurs photoniques universels et compacts. La feuille de route prévoit trois phases : en 2026, un moteur optique pour connecteurs OSFP avec 1,6 Tb/s ; une seconde étape avec intégration en encapsulés CoWoS atteignant 6,4 Tb/s sur la plateforme ; et enfin, une troisième étape visant 12,8 Tb/s directement dans les processeurs, avec une latence et une consommation encore réduites.

Cette progression permettrait une communication interne entre puces presque à la vitesse de la lumière, un saut crucial pour la progression de l’IA générative et des modèles multimodaux, qui combinent vision, texte, audio et raisonnement en temps réel.

Les premiers grands produits de cette nouvelle ère verront le jour avec les commutateurs Quantum-X InfiniBand, attendus pour début 2026. Capables d’offrir un débit de 115 Tb/s via 144 ports à 800 Gb/s, ils présenteront un ASIC capable de traiter 14,4 TFLOPS en réseau, utilisant la quatrième génération du protocole SHARP de Nvidia, conçue pour réduire la latence lors des opérations collectives. Ces équipements seront refroidis par liquide, signe que la densité de puissance dans les centres de données continue d’augmenter.

Par la suite, à partir de la seconde moitié de 2026, Nvidia déploiera Spectrum-X Photonics pour Ethernet, basé sur le chip Spectrum-6 ASIC. Deux modèles principaux seront présentés : le SN6810, avec 102,4 Tb/s et 128 ports à 800 Gb/s, et le SN6800, atteignant 409,6 Tb/s avec 512 ports équivalents, tous deux utilisant un refroidissement liquide et conçus pour soutenir des clusters IA de très grande envergure.

Ce mouvement vers la photonic siliconique est perçu par Nvidia comme incontournable. La taille croissante des clusters d’IA — déjà composés de dizaines de milliers de GPU — rend impossible le maintien d’architectures traditionnelles reposant sur le cuivre et les modules en plug-in. Les nouveaux commutateurs équipés de CPO supprimeront des milliers de composants discrets, simplifieront l’installation et la maintenance, tout en diminuant la consommation énergétique par connexion. En pratique, cela se traduit par des clusters plus rapides à activer, plus fiables, et plus durables, dans des centres de données déjà sous pression pour leur consommation électrique et leur refroidissement à l’échelle mondiale.

La compétition n’est pas en reste : AMD, principal rival de Nvidia, a récemment acquis Enosemi, startup spécialisée dans la photonie intégrée, dans le but de rester dans la course. La transition vers la photonic siliconique marque ainsi un tournant stratégique, où l’efficacité et la modularité de l’interconnexion définissent désormais la compétitivité entre fabricants, bien au-delà des seuls GPU ou du logiciel.

Face à l’expansion de l’IA générative, des modèles multimodaux et des systèmes en temps réel intégrant plusieurs formes de données, la nécessité de clusters ultra performants devient plus importante que jamais. La mise en œuvre de la photonic siliconique et des optiques coemballées par Nvidia n’est pas simplement une avancée technologique : c’est une condition essentielle pour rester au sommet dans un marché mondial des centres de données d’IA, qui pourrait dépasser le trillion de dollars dans la prochaine décennie. À l’avenir, la lumière ne se contentera pas d’éclairer le chemin : elle sera le support même du flux de données alimentant l’intelligence artificielle.

le dernier