Supermicro ouvre à San José son plus grand site aux États-Unis : un campus de 13,3 hectares (32,8 acres) et plus de 66 300 mètres carrés (714 000 pieds carrés) entièrement consacré à la fabrication d’infrastructures pour centres de données IA. C’est la quatrième implantation du fabricant dans la baie de San Francisco, à quelques minutes de son siège social, et la première pensée de bout en bout pour assembler des racks GPU à grande échelle.
L’annonce tombe au moment où la chaîne d’approvisionnement des serveurs IA s’allonge et se tend. Hyperscalers, néo-clouds, laboratoires de modèles et grandes entreprises commandent désormais par milliers des racks complets refroidissement liquide inclus, là où il y a deux ans on parlait encore en serveurs unitaires. Pour Supermicro, l’enjeu est simple : rapprocher fabrication, intégration et tests de ses centres de conception californiens pour gagner des semaines sur le délai de livraison.
Le quatrième site de la baie de San Francisco
Avec ce nouveau campus, la présence régionale de Supermicro dans la Silicon Valley grimpe à environ 372 000 mètres carrés (4 millions de pieds carrés). Le site couvrira la conception avancée de systèmes, la fabrication, les tests, le service après-vente et la distribution mondiale des solutions DCBBS dédiées à l’IA. Charles Liang, président et CEO de Supermicro, parle d’« investissement dans la fabrication américaine » et promet plusieurs centaines d’emplois en ingénierie, production et fonctions support.
Le maire de San José, Matt Mahan, replace cette ouverture dans la stratégie économique locale : garder en Californie une part visible de l’infrastructure IA, pas seulement les couches logicielles et le capital-risque. Ce positionnement compte alors que Washington serre la vis sur les exportations de puces vers la Chine, comme l’illustre le blocage récent de Hua Hong sur le 7 nm. Produire des serveurs IA sur le sol américain devient un atout commercial autant qu’un argument politique.
DCBBS : vendre le rack, pas la pièce
Le campus est entièrement aligné sur la stratégie DCBBS, pour Data Center Building Block Solutions. L’idée que défend Supermicro depuis trois ans : un centre de données IA n’est plus un assemblage de serveurs achetés à droite et à gauche, c’est un bloc préintégré qui sort de l’usine déjà câblé, refroidi et testé. GPU, CPU, mémoire HBM, stockage NVMe, switches haute vitesse, refroidissement liquide direct, logiciel de gestion : tout part en un seul rack.
L’argument commercial s’appuie sur ce que l’entreprise appelle le Time-to-Online, c’est-à-dire le délai entre la commande et la mise en production réelle. Sur des racks IA densifiés à 50 ou 100 kW, chaque erreur de câblage ou de validation thermique se paie en jours d’arrêt. En sortant le rack déjà éprouvé, Supermicro raccourcit cette phase de plusieurs semaines, parfois plusieurs mois, ce qui pèse lourd sur des projets où l’amortissement d’un cluster GPU se compte en trimestres.
Cette logique industrielle rejoint la tendance plus large des « usines d’IA », ces installations dédiées à entraîner et servir des modèles à très haute densité. Les opérateurs de ces fermes n’ont ni le temps ni les équipes pour valider chaque composant ; ils achètent du capacitif déjà certifié. Même les acteurs de niche bougent dans cette direction, comme le montre l’arrivée du QNAP QAI-h1290FX pour les LLM privés : le marché veut des serveurs IA prêts à brancher, pas des kits.
La fabrication locale, arme stratégique
Supermicro ne grave pas ses propres puces. L’entreprise se positionne sur la couche d’intégration, celle qui transforme accélérateurs Nvidia ou AMD en systèmes complets. Cette couche prend de la valeur à mesure que la rareté se déplace : les GPU restent contraints, mais la mémoire HBM, les switches optiques et les châssis refroidis liquide deviennent à leur tour des goulots. Posséder l’usine qui combine ces briques près des bureaux de design, c’est gagner sur les itérations.
Le contexte géopolitique pousse dans le même sens. Restrictions à l’export, droits de douane, contrôles sur les outils de gravure : la chaîne mondiale du serveur IA est devenue un terrain réglementaire mouvant. Avoir une capacité industrielle américaine certifiée rassure les clients du gouvernement fédéral, du DoD et des grandes banques, qui doivent déjà se justifier sur l’origine des composants critiques. Le campus de San José répond directement à cette exigence de traçabilité.
L’effort va plus loin que la simple chaîne d’assemblage. Supermicro veut héberger sur place les phases de validation thermique, les tests réseau Ethernet et InfiniBand à 800 Gb/s, et la qualification du refroidissement liquide direct (DLC) qui domine désormais sur les racks à très haute densité. Cette concentration géographique ressemble à ce que les fondeurs avancés essaient de reproduire pour les chaînes de packaging avancé.
Une concurrence qui se durcit
Le marché de l’intégration IA n’est plus la chasse gardée de Supermicro. Dell Technologies, HPE, Lenovo et Cisco poussent leurs propres lignes de racks GPU certifiés Nvidia. Côté Asie, les ODM Foxconn, Wiwynn, Quanta et Inventec fournissent directement les hyperscalers. À ça s’ajoutent des intégrateurs spécialisés IA, plus jeunes et plus agressifs sur les prix, qui visent les néo-clouds émergents.
Supermicro garde un avantage : un catalogue dense, des cycles de conception courts et une réputation de flexibilité sur les configurations. La société a aussi profité plus que ses concurrents directs de la vague Nvidia HGX, ce qui se voit dans le carnet de commandes. Mais cet avantage se défend mois par mois. La pression sur la qualité, la disponibilité de pièces et le service est telle qu’un trimestre raté suffit à voir partir un gros client vers un ODM asiatique. Le campus californien est aussi une réponse à cette pression : produire plus vite, livrer plus prévisible, garder le contrôle qualité.
Au-delà de l’assemblage, l’industrie cherche également à automatiser la conception elle-même. Les expériences récentes en conception de CPU par IA montrent où va la chaîne de valeur : raccourcir chaque maillon, du dessin du SoC jusqu’au rack en production. Supermicro joue son coup sur le maillon final, le plus visible et le plus capitalistique.
Ce que ça change pour les acheteurs
Pour un opérateur cloud européen ou un hyperscaler nord-américain, l’ouverture du campus signifie d’abord une fenêtre de livraison plus courte. Les délais sur racks GPU haute densité sont passés de deux à plus de six mois selon la configuration ces dernières années. Une capacité de production additionnelle dans la baie de San Francisco peut grappiller des semaines précieuses, surtout sur les commandes urgentes pour entraîner ou inférer un modèle de pointe.
Reste à voir comment la promesse se traduira en chiffres. 66 300 mètres carrés ne corrigent pas à eux seuls la pénurie de GPU H100, B200 ou de mémoire HBM3e. Mais ils ajoutent de la capacité au point précis où la friction est maximale aujourd’hui : transformer ces composants rares en systèmes prêts à fonctionner. Si Supermicro tient son calendrier, le site pourrait commencer à livrer ses premiers racks DCBBS depuis San José dans les douze à dix-huit mois.
L’industrie IA s’est longtemps concentrée sur les modèles et les puces. Cette annonce remet la lumière sur la couche physique, celle qui assemble, refroidit et expédie. Sans elle, les milliards investis dans le compute n’arrivent jamais aux centres de données. Charles Liang parie que le prochain front se jouera là, et il met les usines en face.
Questions fréquentes
Où se trouve exactement le nouveau campus de Supermicro ?
À San José, en Californie, à proximité du siège social de l’entreprise. C’est sa quatrième implantation dans la baie de San Francisco.
Quelle est la taille de cette installation ?
Le site couvre 13,3 hectares (32,8 acres) et plus de 66 300 mètres carrés bâtis (714 000 pieds carrés). Avec cette ouverture, Supermicro porte sa présence dans la Silicon Valley à environ 372 000 mètres carrés (4 millions de pieds carrés).
À quoi sert ce campus ?
Il regroupe la conception, la fabrication, les tests, le service après-vente et la distribution mondiale des solutions DCBBS pour infrastructure IA, racks GPU haute densité inclus.
Que recouvre la stratégie DCBBS ?
DCBBS signifie Data Center Building Block Solutions. C’est l’approche modulaire de Supermicro qui livre des racks IA préintégrés (GPU, CPU, stockage, réseau, refroidissement liquide, logiciel de gestion) plutôt que des serveurs séparés.
Quel est l’enjeu géopolitique derrière cette ouverture ?
Renforcer la production américaine de serveurs IA face à la dépendance asiatique et aux contrôles à l’export sur les semi-conducteurs. La fabrication locale rassure clients fédéraux et grandes entreprises sur la traçabilité de la chaîne.
Source : communiqué Supermicro.