OpenAI et Broadcom ont annoncé une collaboration pluriannuelle visant à développer et déployer 10 gigawatts (GW) d’accélérateurs d’IA et de systèmes réseau dans les centres de données d’OpenAI et de ses partenaires. Ce communiqué conjoint, daté du 13 octobre 2025 à San Francisco et Palo Alto, précise que OpenAI concevra les accélérateurs et les systèmes, tandis que Broadcom co-développra et produira les bétails et apportera son portefeuille Ethernet, PCIe et optical pour extensifier les clusters en mode “scale-up” et “scale-out”. La mise en place des racks est prévue à partir de la seconde moitié de 2026 et s’achèvera fin 2029.
La société derrière ChatGPT souligne qu’concevoir ses propres puces permet d’incorporer l’apprentissage lors du développement de modèles de pointe et produits directement au niveau du hardware, avec l’ambition de débloquer des niveaux inédits de capacité et d’intelligence. L’annonce est accompagnée de la signature d’un term sheet pour les racks intégrant les accélérateurs et solutions réseau de Broadcom, ce qui témoigne d’une avancée dans la chaîne d’approvisionnement vers des clusters ouverts, évolutifs et performants.
Sam Altman, cofondateur et CEO d’OpenAI : “S’associer avec Broadcom est une étape essentielle pour bâtir l’infrastructure qui libérera le potentiel de l’IA et apportera de véritables bénéfices aux individus et aux entreprises. Développer nos propres accélérateurs vient renforcer l’écosystème de partenaires créant la capacité nécessaire pour pousser les frontières de l’IA”.
Hock Tan, président et CEO de Broadcom : “La collaboration avec OpenAI marque une étape décisive dans la quête de l’intelligence artificielle générale. Nous sommes ravis de co-développer et déployer 10 GW d’accélérateurs et de systèmes réseau nouvelle génération pour façonner l’avenir de l’IA”.
Greg Brockman, cofondateur et président d’OpenAI : “En fabriquant nos propres puces, nous pouvons incorporer ce que nous avons appris en créant des modèles de pointe et des produits directement dans le hardware, ce qui nous permet d’atteindre de nouveaux niveaux de capacité et d’intelligence”.
Charlie Kawwas, président du Semiconductor Solutions Group de Broadcom : “Les accélérateurs sur mesure se combinent exceptionnellement bien avec des solutions Ethernet standardisées en mode scale-up et scale-out pour offrir une infrastructure d’IA optimisée en coûts et performances. Les racks intègrent le portefeuille complet d’Ethernet, PCIe et connectivité optique de Broadcom”.
Que signifie “10 GW” pour les accélérateurs d’IA (et pourquoi Ethernet)
Le volume de 10 GW donne une idée de la dimension industrielle que gère OpenAI : il s’agit de capacité électrique totale prévue pour alimenter des clusters d’IA sur plusieurs années, répartie entre locaux et centres de données partenaires. En pratique, cette magnitude ne correspond pas à un seul campus, mais à multiples sites équipés de bétails intégrant accélérateurs et réseaux connectés via Ethernet et optique de Broadcom.
Le fait que l’interconnexion privilégie Ethernet – plutôt que d’autres technologies propriétaires – constitue un point clé. Broadcom la qualifie de pilier pour stabiliser l’échelle (verticale et horizontale) des clusters : scale-up (consolidation et haut débit au sein du nœud et du rack) et scale-out (croissance entre racks et domaines). Avec Ethernet et PCIe comme bases, Broadcom affirme pouvoir offrir des solutions ouvertes pour la croissance, optimisées tant au coût qu’en termes de performance et d’efficacité énergétique.
Calendrier et portée : de 2026 à 2029, racks “sur mesure”
- Conception et systèmes : OpenAI définit l’architecture des accélérateurs et des systèmes complets (racks), en intégrant les enseignements de ses modèles de pointe et produits.
- Co-développement et approvisionnement : Broadcom apporte le développement, la fabrication et son pile de connectivité (Ethernet, PCIe, optique) pour intégrer ces designs dans des bétails prêts à l’emploi.
- Mise en service : à partir de la deuxième moitié de 2026, avec une fin prévue vers fin 2029.
- Champ d’application : facilités d’OpenAI et centres de données partenaires, indiquant la création probable d’une grappe multinœud pour le training et le service de modèles à grande échelle.
La société souligne que des accords de co-développement et approvisionnement existent déjà avec Broadcom, et que les deux parties ont signé un term sheet pour la livraison de racks combinant accélérateurs et réseaux.
Pourquoi OpenAI conçoit-il ses propres accélérateurs ?
Le message d’OpenAI est clair : transférer le “feedback” du logiciel au hardware. Concevoir des accélérateurs sur mesure – plutôt que d’acheter des solutions prêtes à l’emploi – vise trois objectifs principaux :
- Ajustement précis aux charges réelles : aligner microarchitecture, mémoire, interconnexion et logiciel avec les exigences du pré-entraînement, finetuning et inférence de modèles de pointe.
- Maîtrise de la feuille de route : capacité à itérer en partenariat avec un fonderie/emballage et des fournisseurs de réseau sans attendre des cycles génériques ; à prioriser ce qui est vital pour ses propres charges.
- Efficience opérationnelle : aligner l’ensemble (accélérateurs, Ethernet, PCIe, optique, software) pour réduire latences, goulots d’étranglement et coûts énergétiques par token ou par step de formation.
En résumé, Greg Brockman insiste : « incorporer directement ce que nous avons appris » dans le silicium et les systèmes pour ouvrir de nouveaux horizons en capacité et en intelligence.
Broadcom : Ethernet comme colonne vertébrale du data center d’IA
Pour Broadcom, cette collaboration est une confirmation de deux principes :
- l’importance des accélérateurs sur mesure pour la prochaine génération d’IA ;
- le choix de l’Ethernet comme technologie de référence pour scale-up / scale-out dans les data centers d’IA, en raison de sa standardisation, de son écosystème et de ses économies d’échelle.
La firme met en avant un portefeuille “end-to-end” comprenant commutation Ethernet haute performance, PCIe pour interconnexion intra-rack et des solutions optiques pour relier racks et pods à haut débit et faible latence.
Un coup de pouce pour la mission (et la demande mondiale)
OpenAI relie sa collaboration avec Broadcom à sa mission d’assurer que l’IA générale bénéficie à “toute l’humanité”, et voit cette alliance comme une étape cruciale pour répondre à la demande mondiale croissante de capacité en IA. La société revendique avoir dépassé 800 millions d’actifs utilisateurs hebdomadaires, avec une forte adoption dans les entreprises, les PME et par développeurs. Une telle utilisation exige une infrastructure stable et prévisible.
Si le logiciel a été le moteur de l’accélération des produits, l’infrastructure —énergie, puces, réseau, centre de données— demeure le véritable goulot d’étranglement. Cette annonce répond à cette problématique avec volume, temporalité et standardisation.
Ce que la note ne dit pas (et qu’il convient de garder à l’esprit)
Le communiqué ne détaille pas de nœuds précis, localisations de déploiement ni paramètres des accélérateurs (processus de foundry, mémoire HBM, TDP, packaging). Il ne fournit pas non plus de données sur le costs capex par étape ou le PUE prévu pour les racks. Ces éléments sont généralement précisés dans des feuilles de route techniques et des mises à jour ultérieures, une fois que le term sheet évolue en contrats et jalons.
Le calendrier — de la seconde moitié de 2026 à la fin 2029 — implique plusieurs cycles d’itération architecturale et de fabrication, avec une exposition aux risques d’approvisionnement (matériaux, packaging, HBM) et à la disponibilité énergétique et de transmission dans les sites. La priorité donnée à Ethernet atténue certains risques grâce à la standardisation, mais n’élimine pas les défis liés à l’organisation à l’échelle hyperscale.
Lecture stratégique : capacité interne, standards ouverts et partenaires “chaîne”
- Capacité interne : les accélérateurs conçus par OpenAI réduisent leur dépendance à des feuilles de route externes pour modèles de pointe.
- Standards ouverts : Ethernet / PCIe / optical comme socle limite les coûts totaux et favorise l’expansion grâce à un écosystème large.
- Partenaires “chaîne” : la collaboration avec Broadcom garantit un fournisseur de réseaux et de systèmes end-to-end qui co-développe avec OpenAI, suivant un modèle éprouvé durant l’ère des hyperscalers.
Pour le marché, le message est limpide : OpenAI ne se limite pas aux modèles et plateformes, elle investit aussi dans l’infrastructure qui les rend possibles, une stratégie qui influencera la concurrence en termes de coûts d’inférence/entraînement et de time-to-market dans les années à venir.