Neurophos et son « OPU » photonique : la promesse de briser le mur énergétique de l’IA

Neurophos et son « OPU » photonique : la promesse de briser le mur énergétique de l’IA

Une nouvelle startup américaine cherche à placer la photonique — c’est-à-dire l’informatique à la lumière — au cœur du débat sur l’avenir du matériel pour l’Intelligence Artificielle. Neurophos, basée à Austin (Texas), a annoncé une levée de fonds de série A de 110 millions de dollars (118 millions en incluant les financements antérieurs) pour accélérer le développement de ses Optical Processing Units (OPU), une famille d’accélérateurs ciblant l’inférence en IA. Selon la société, ces unités visent à offrir des gains de performance et d’efficacité impossibles à atteindre avec du silicium conventionnel.

La thèse qui justifie cet engagement est claire : l’industrie atteint des limites physiques et opérationnelles. Le « mur de puissance » n’est plus une métaphore ; il constitue une barrière réelle dans les centres de données, en raison de la disponibilité électrique, du refroidissement et du coût total. Dans ce contexte, il n’est pas surprenant que grands groupes et startups explorent des voies alternatives, allant du silicium photonique pour l’interconnexion à de nouveaux paradigmes de calcul. Reuters suit par exemple la montée en puissance de la photonique dans les réseaux et l’emballage avancé pour les infrastructures IA, principalement pour son potentiel d’efficacité dans le transfert de données.

Qu’est-ce qu’une OPU et pourquoi est-elle importante dans l’IA

Contrairement à une GPU traditionnelle, où chaque opération implique une commutation électrique, une OPU cherche à exécuter des opérations critiques pour l’IA (notamment des multiplications matricielles) en tirant parti des propriétés physiques de la lumière. Concrètement, Neurophos affirme que son architecture intègre plus d’un million d’éléments de traitement optique sur une seule puce. L’innovation clé réside dans des modulateurs optiques micrométriques basés sur des métamatériaux, avec une miniaturisation permettant de faire évoluer des matrices photoniques à des densités commercialisables.

Ce qui rend ces technologies attractives, c’est leur efficience opérationnelle : dans de nombreux cas, le « calcul » réalisé par la photonique peut être relativement peu énergivore une fois la signalisation dans le domaine optique. Le coût principal se reporte à la conversion électrique-vers-optique et inversement, ainsi qu’à l’intégration avec la mémoire et le contrôle numérique. La répartition de ces coûts détermine si la photonique reste une solution de laboratoire ou devient une composante de l’infrastructure industrielle.

Les chiffres avancés par Neurophos

Dans ses documents publics, Neurophos présente des configurations Tulkas comportant deux niveaux : le module OPU et le système serveur. La société communique notamment des spécifications pour le T100 OPU et le T100 Server, conçus pour des opérations intensives en précision basse (FP4/INT4), avec une couche supplémentaire pour FP16/INT16.

Tulkas T100 OPU (module):

  • 0,47 EXAOPS en MAC/GEMM denses FP4/INT4
  • 235 TOPS/W (efficacité déclarée)
  • 2 kW en pic / 1 kW en moyenne
  • 768 GB HBM avec 20 TB/s de bande passante
  • 200 MB de cache L2
  • Logiciel supporté : Triton et JAX

Tulkas T100 Server (système):

  • 2 EXAOPS en MAC/GEMM denses FP4/INT4
  • 10 kW en pic / 5 kW en moyenne
  • 3,07 TB HBM avec 80 TB/s
  • 800 MB de cache L2
  • Logiciel supporté : Triton et JAX

Certaines publications technologiques ont amplifié l’impact de ces chiffres, évoquant des configurations plus ambitieuses — y compris un supposé « Tulkas T110 » et des vitesses internes de plusieurs dizaines de GHz — mais cette nomenclature n’est pas celle utilisée dans les matériaux officiels consultés.

Une distinction importante : EXAOPS n’est pas équivalent à “petaFLOPS”

Il convient de différencier le marketing de l’ingénierie : lorsqu’on parle de EXAOPS (ex-for opérations par seconde) en FP4/INT4, on quantifie une opération très spécifique (souvent des MAC/GEMM) en très faible précision. Cela concerne principalement l’inférence et certaines techniques de quantification. Ce n’est pas directement comparable aux FLOPS traditionnels (FP32/FP64) ni aux résultats de bancs d’essai indépendants. En résumé, ces chiffres sont gigantesques, mais leur signification réelle dépend de la charge de travail, la précision effective, les latences, la mémoire et l’écosystème logiciel disponible pour que le client puisse s’en servir sans devoir réécrire son logiciel.

Neurophos affirme également viser un remplacement “clé en main” dans les centres de données, avec une technologie offrant “jusqu’à 100×” de performance et d’efficacité par rapport aux chips leaders actuels. C’est une revendication forte qui, pour l’instant, reste une déclaration corporate, à valider via des comparaisons reproductibles.

Impacts géopolitiques et industriels : ce n’est pas seulement “plus de performance”

Deux aspects expliquent la traction de cette annonce :

  1. Dynamique de capital et alliances : la levée a été menée par Gates Frontier, avec la participation de M12 (fonds de Microsoft), ainsi que d’autres fonds liés à l’énergie et à la durabilité. Cela indique que la problématique “calcul par watt” est désormais perçue comme un enjeu stratégique, et plus simplement comme une optimisation marginale.
  2. L’écosystème se tourne vers la photonique : même lorsque la photonique est utilisée pour l’interconnexion (et non pour le calcul), le principe reste le même : déplacer plus de données avec moins d’énergie et moins de chaleur. Ce débat est étroitement lié à l’emballage avancé et à l’architecture système.

La question cruciale : laboratoire ou plateforme industrielle ?

Pour qu’une OPU devienne un produit viable d’infrastructure, trois conditions sont essentielles :

  • Logiciel et adoption effective : promettre Triton/JAX est une bonne accroche, mais le marché exige une compatibilité concrète avec les flux PyTorch, des kernels optimisés, une observabilité et des outils de production.
  • Fiabilité et contrôle : la photonique et le calcul analogique nécessitent souvent calibration, gestion des variations et contrôle du bruit. La gestion opérationnelle “day 2” est aussi importante que la performance brute.
  • Intégration avec la mémoire et le réseau : le bon résultat en inférence ne repose pas uniquement sur la puissance de calcul, mais aussi sur le déplacement des données. Les chiffres de HBM et de bande passante TB/s ont autant d’importance que les opérations brutes.

Neurophos indique qu’elle accélère ses efforts vers des hardware pour développeurs et des déploiements précoces. Si le projet se concrétise, il n’est pas impossible que l’avenir immédiat ressemble davantage à un “mix” (GPU + accélérateurs spécialisés + photonique) qu’à une substitution instantanée d’un acteur dominant.


Questions fréquentes

Qu’est-ce qu’une OPU (Optical Processing Unit) et en quoi diffère-t-elle d’une GPU ?
Une OPU utilise la lumière pour effectuer des opérations clés (comme des multiplications matricielles) dans des circuits photoniques intégrés, tandis qu’une GPU effectue ces opérations par commutation électrique dans des transistors. L’efficacité énergétique potentielle et la gestion de la mémoire, des conversions de signaux sont les différenciateurs principaux.

Pourquoi FP4 et INT4 sont-ils si importants en inférence IA ?
Car de nombreuses charges d’inférence tolèrent une faible précision grâce à des techniques de quantification. Diminuer la précision augmente le rendement effectif et réduit la consommation, à condition que la qualité du modèle reste acceptable et que la mémoire et la bande passante soient suffisantes.

Une OPU pourrait-elle servir à entraîner des modèles, ou est-elle seulement destinée à l’inférence ?
Selon Neurophos, sa priorité est l’inférence et les opérations denses (MAC/GEMM) en basse précision. La formation nécessite d’autres compromis (précision, stabilité numérique, communications, scalabilité), et il ne faut pas l’automatiquement supposer compatible.

Quels obstacles freinent généralement la photonique pour l’IA ?
L’intégration au logiciel, la conversion électro-optique (coût/latence), la calibration, la fiabilité opérationnelle, ainsi que la validation indépendante avec de vrais workloads.

Vía : Neurophos whitepaper

le dernier