Le débat sur la souveraineté technologique se concentre souvent sur les puces, les modèles et les talents. Cependant, dans la pratique, la compétitivité scientifique d’un pays se joue aussi ailleurs, dans des lieux moins visibles : les centres de calcul où sont entraînés des modèles, simulés des phénomènes physiques et analysés des données biomédicales à grande échelle. Dans ce contexte s’inscrit le déploiement de Nibi, le superordinateur hébergé à l’Université de Waterloo (Ontario, Canada). Son infrastructure réseau et la conception du centre de données ont été impulsées par Nokia et Hypertec Group, dans le but de renforcer les capacités de recherche en santé, sciences du climat, ingénierie et Intelligence Artificielle (IA).
L’annonce a été officialisée le 22 janvier 2026, plaçant Nibi comme un projet d’envergure nationale : le système s’intègre à SHARCNET (Shared Hierarchical Academic Research Network), un réseau canadien de calcul haute performance qui dessert 19 établissements universitaires. Avec ce nombre d’acteurs, il est considéré comme le plus grand consortium HPC du pays. L’objectif est clair : fournir une puissance de calcul permettant aux enseignants, aux étudiants, aux doctorants et aux chercheurs d’exécuter des tâches exigeantes, sans dépendre d’infrastructures externes, en prévision de plus de 4 000 chercheurs par an qui bénéficieront de cette ressource.
Une orientation stratégique : passer à une interconnexion basée sur Ethernet
Au-delà de la simple augmentation de la puissance, c’est l’architecture qui constitue une avancée majeure. La mise en service de Nibi s’accompagne d’une décision technique qui reflète les évolutions du HPC à l’ère de l’IA : le passage à une interconnexion Ethernet. Depuis SHARCNET, son directeur technique, John Morton, souligne que cette transition, conjuguée à la conception et à l’intégration du système, vise à garantir évolutivité, fiabilité et performance pour une gamme très variée de charges : de la simulation classique aux modèles d’IA exigeants en réseau et en stockage.
Cette démarche s’inscrit également dans la proposition de Nokia, qui fournit sa Data Center Fabric ainsi que l’infrastructure réseau IP pour le cluster. Selon l’entreprise, il s’agit de sa première installation en Amérique du Nord de ce type de réseau destiné aux centres de données axés sur l’IA et le HPC. Hypertec, de son côté, a joué le rôle d’architecte principal et d’intégrateur, avec une expertise particulière en conception de centres de données et en technologies avancées de refroidissement.
Ce qu’abrite Nibi : CPU, GPU, stockage et un réseau prêt pour l’IA
La configuration de Nibi ne se limite pas à un simple nombre de nœuds. Selon diverses sources du secteur, le système est construit autour de processeurs Intel Xeon de 6ᵉ génération et d’accélérateurs NVIDIA H100, avec un sous-système de stockage dépassant 25 pétaoctets. Le cluster est interconnecté via un Ethernet 400 Gb/s, un chiffre crucial qui indique un design pensé pour un déplacement de données à faible latence et à haut débit, répondant aux flux typiques de l’IA (entraînement, inférence à grande échelle, analyses de gros jeux de données), tout en restant compatible avec les travaux traditionnels de HPC.
Il y a quelques mois, l’Université de Waterloo présentait ce projet comme une modernisation profonde de ses capacités de calcul : Nibi a remplacé le superordinateur Graham, et était décrit comme un système doté de plus de 700 nœuds et d’environ 140 000 cœurs CPU. Il intègre également des nœuds GPU orientés IA (dont certains configurés avec huit H100 par nœud) et un stockage flash à haute capacité visant à améliorer performance et fiabilité.
Refroidissement par immersion et réutilisation de la chaleur : quand le design « durable » n’est pas qu’un coup de marketing
Ce qui rend Nibi remarquable pour l’industrie des centres de données, c’est son approche thermique. La mise en œuvre inclut refroidissement par immersion (avec plusieurs cuves monocéphales) et des solutions de refroidissement direct par liquide sur les GPU. Techniquement, cette ingénierie vise à réduire les coûts liés au refroidissement de ce qui est, en pratique, un concentrateur de chaleur continue.
Et cela ne se limite pas à l’économie d’énergie : une des caractéristiques les plus innovantes du projet est la réutilisation de la chaleur résiduelle. Celle-ci est utilisée pour chauffer le Mike and Ophelia Lazaridis Quantum-Nano Centre, un bâtiment lié à la recherche quantique sur le campus. Autrement dit, une partie de l’énergie normalement perdue sous forme de chaleur est récupérée et utilisée pour le chauffage du centre universitaire.
Une dimension culturelle est également présente. Waterloo explique que le nom Nibi signifie « eau » en anishinaabemowin (ojibwé), et que ce choix a été fait après consultation avec les communautés autochtones locales, pour souligner le rôle de « l’eau » dans l’efficacité du système de refroidissement.
Une infrastructure « souveraine » et un effet catalyseur : pourquoi ces éléments sont importants
Dans son communiqué officiel, Nokia présente Nibi comme un exemple de la capacité canadienne à « concevoir, déployer et exploiter » une infrastructure de recherche en IA compétitive, fondée sur une expertise locale. Ce message s’inscrit dans une tendance plus large : les pays qui ambitionnent un leadership scientifique doivent développer des capacités locales pour effectuer des calculs intensifs, non seulement pour « faire de la science », mais aussi pour former des talents et attirer des projets.
Par ailleurs, ce projet renforce la présence de Nokia au Canada. La société a associé cette deployment à l’expansion récente de son campus à Ottawa (Kanata North Tech Park), visant à accélérer l’innovation dans les réseaux pour l’IA, la connectivité de nouvelle génération et les technologies quantiques. Nokia met également en avant son histoire dans le pays depuis la fin des années 80, avec une équipe de plus de 2 700 employés à l’échelle nationale.
Ce que Nibi symbolise pour le HPC en 2026
La valeur de Nibi ne réside pas seulement dans la rapidité, mais dans la démonstration d’un modèle : IA, réseau haute performance basé sur Ethernet, stockage massif et refroidissement liquide avancé sont désormais des conditions minimales. L’impact pratique pour la communauté scientifique est évident : plus d’expériences, plus d’itérations, plus de projets simultanés. Industriellement, cela signifie que l’infrastructure HPC se rapproche de plus en plus de celle des grands centres de données spécialisés dans l’IA, et inversement.
Questions fréquentes
Pour quels types de recherches sera utilisé le superordinateur Nibi ?
Il est conçu pour des charges de calcul intensives en santé, sciences du climat, ingénierie et Intelligence Artificielle, notamment pour les simulations, l’analyse avancée et les travaux accélérés par GPU dans le cadre de l’écosystème académique canadien.
Que représente une connexion Ethernet de 400 Gb/s dans un superordinateur dédié à l’IA ?
Elle offre une bande passante élevée et une évolutivité pour transférer de grands volumes de données entre nœuds (CPU/GPU) et stockage—un enjeu essentiel pour l’entraînement et l’analyse à grande échelle. Elle facilite aussi l’intégration d’outils et de flux opérationnels classiques des centres de données.
Pourquoi la refroidissement par immersion est-il crucial en HPC et IA ?
Parce qu’il améliore l’efficacité thermique des systèmes à haute densité : il permet de dissiper la chaleur plus efficacement que l’air, de réduire la consommation d’énergie liée au refroidissement, et dans certains cas, de réutiliser la chaleur résiduelle pour d’autres usages dans le bâtiment.
Qu’est-ce que SHARCNET et pourquoi Nibi y est intégré ?
SHARCNET est un consortium canadien de calcul à haute performance regroupant 19 institutions. L’intégration de Nibi à SHARCNET permet d’élargir l’accès aux ressources de calcul pour des chercheurs issus de plusieurs universités, et pas uniquement d’un seul campus.
Source : nokia