Las Vegas redevient cette semaine le véritable vitrine où l’industrie technologique tente de tracer la voie pour l’année à venir. Le CES 2026 n’arrive pas seulement avec son lot habituel d’ordinateurs portables, de téléviseurs et de gadgets, mais avec une ambition plus concrète : faire que l’Intelligence Artificielle ne soit plus perçue comme “une couche de logiciel” mais comme une nouvelle infrastructure, allant du centre de données jusqu’au bureau d’un développeur.
La propre organisation du CES, en amont de l’événement, souligne que cette édition mettra en lumière des tendances qui ne sont plus cloisonnées dans les laboratoires : robotiques “de salon à usine”, santé numérique avec une volonté de déploiement réel et un espace élargi pour les créateurs. Elle introduira également CES Foundry, un nouveau format conçu pour favoriser les échanges d’affaires et de technologie autour de l’IA et de l’informatique quantique. En résumé, l’objectif est que le CES 2026 ressemble moins à un simple catalogue et davantage à une feuille de route.
CES Foundry : lorsque l’IA et la quantique s’asseyent à la même table
Un des messages récurrents en amont est que l’IA ne se limite plus aux modèles, mais se mesure également par la puissance nécessaire pour former, déployer et maintenir ces modèles sans que les coûts n’explosent. C’est dans ce contexte que apparaît CES Foundry, conçu comme un point de rencontre pour parler d’investissement, d’adoption et de montée en puissance — et pas uniquement de lancements —, avec l’IA et la quantique comme fil conducteur intégrant toutes les verticales. La vision de l’événement, en résumé, privilégie un déploiement industriel concret plutôt qu’un futur abstrait.
NVIDIA Rubin : six puces et une promesse de “superordinateur” IA
Dans le domaine des centres de données, NVIDIA profite du CES pour renforcer une narration qui est devenue sa marque de fabrique : la prochaine génération ne se vend pas comme une GPU, mais comme une plateforme complète.
La société présente Rubin comme une architecture de “co-conception extrême” intégrant six éléments en silicium : Vera CPU, Rubin GPU, NVLink 6 Switch, ConnectX-9 SuperNIC, BlueField-4 DPU et Spectrum-6 Ethernet Switch. Leur but déclaré est double : réduire le temps d’entraînement et surtout, baisser le coût de génération de tokens en inférence, un enjeu crucial pour les modèles avec raisonnement, agents et longues séquences contextuelles.
Selon NVIDIA, Rubin permet d’obtenir jusqu’à 10 fois moins de coût par token en inférence comparé à Blackwell, et autorise l’entraînement de modèles Mixture-of-Experts avec quatre fois moins de GPU qu’auparavant. Pour le secteur, ces chiffres ont une interprétation immédiate : si le coût baisse, le nombre d’usages “économiquement viables” augmente.
De plus, Rubin s’appuie sur un discours technique visant à justifier cette avancée : NVLink de sixième génération pour la communication GPU-GPU à grande échelle, moteur Transformer de nouvelle génération, capacités de Confidential Computing au niveau rack, et une approche de résilience et de maintenabilité qui cible un des grands ennemis des clusters massifs : la perte de performance due aux défaillances et à la maintenance.
NVIDIA prévoit la disponibilité des systèmes basés sur Rubin pour la seconde moitié de 2026, en collaboration avec des fabricants et de grands fournisseurs de cloud.
DGX SuperPOD et la quête du “rack comme unité de calcul”
Autre composante du discours, le déploiement à grande échelle. La société insiste sur le concept d’“usine d’IA” : des centres de données conçus comme des usines à tokens et raisonnement.
Dans cette optique, DGX SuperPOD apparaît comme le “plan” pour industrialiser Rubin. NVIDIA détaille des configurations où le rack devient une sorte de bloc indivisible alliant calcul et mémoire, avec l’interconnexion en point d’orgue. Le message est clair : le goulet d’étranglement n’est plus seulement computationnel, il concerne aussi le réseau, le transfert des données et l’opération quotidienne du cluster.
Du centre de données au bureau : DGX Spark et DGX Station
Le CES 2026 marque également un virage intéressant : le retour de l’IA locale comme solution complémentaire à la cloud, non pas comme alternative unique mais pour accélérer les itérations, protéger la propriété intellectuelle et réduire la friction dans le développement.
NVIDIA présente DGX Spark et DGX Station comme des “supercalculateurs” de bureau destinés à exécuter des modèles avancés en local. La promesse : Spark peut gérer des modèles de l’ordre de 100 milliards de paramètres, tandis que Station vise des échelles supérieures, avec une configuration basée sur Grace Blackwell Ultra et une mémoire cohérente permettant, selon l’entreprise, de travailler sur des modèles encore plus exigeants depuis un environnement de bureau.
Ce mouvement répond à une demande croissante : des équipes souhaitant prototyper et affiner des modèles sans dépendre d’une file d’attente GPU dans le cloud, tout en pouvant évoluer ensuite.
AMD répond avec “Helios” : la vision d’une IA à l’échelle yotta
AMS profite du CES 2026 pour affirmer sa propre vision : “l’IA partout, pour tous”, du centre de données à l’edge et au PC.
Sa révélation majeure est un aperçu de “Helios”, une plateforme rack-scale décrite comme un “blueprint” pour une infrastructure IA à l’échelle yotta. AMD la présente comme un système construit autour de GPUs Instinct MI455X, de CPUs EPYC “Venice” et de réseaux avec Pensando, le tout appuyé par l’écosystème logiciel ROCm. L’objectif annoncé est d’atteindre jusqu’à 2,9 exaflops de performance IA dans un seul rack, en mettant en avant densité et efficacité.
Parallèlement, AMD élargit la gamme Instinct avec la MI440X, destinée aux déploiements en entreprise sur site, et dévoile une préversion de la série MI500, prévue pour une sortie en 2027.
Le message se complète avec l’accent mis sur le matériel pour PC : nouvelles plateformes Ryzen AI équipées de NPU de 60 TOPS, et un engagement à promouvoir l’éducation et l’adoption sociale avec un budget de 150 millions de dollars pour intégrer davantage l’IA dans les écoles et les communautés.
MSI traduit la tendance en produits : portables, écrans, Wi-Fi 7 et SSD PCIe 5.0
Le CES conserve son statut : de l’électronique grand public, mais de plus en plus “contaminée” par l’IA comme argument central.
MSI présente une gamme étendue sous le slogan “Innovate Beyond”, comprenant des portables fins dédiés à la productivité, des machines gaming avec une marge thermique améliorée, ainsi que des accessoires et composants misant sur la connectivité et la performance.
Au programme : un portable gaming de 16“ capable de délivrer jusqu’à 300 W combinés pour CPU et GPU grâce à un système de refroidissement avancé ; des modèles fins équipés de ports complets (y compris RJ-45 dans un format épuré) ; un moniteur QD-OLED ultra-large à haute fréquence de rafraîchissement ; et une adoption croissante du Wi-Fi 7 en solutions mesh domestiques. La mémoire PCIe Gen5 avec ses vitesses de lecture/écriture accrues attire autant les créateurs que les utilisateurs désireux de réduire leurs temps de chargement et leurs transferts data.
Le fil conducteur ne se résume pas à la recherche de performance brute : c’est aussi l’impression que le PC est en train d’être repensé pour accompagner des flux de travail où l’IA (locale ou hybride) devient une composante du quotidien.
La mémoire à nouveau au centre : HBM4 et LPDDR6 en ligne de mire
Ce qui ressort clairement de cette édition, c’est que l’IA ne se limite pas aux GPU. La mémoire et la bande passante retrouvent une importance stratégique cruciale.
Dans cette course, SK hynix se distingue comme l’un des acteurs majeurs : des médias spécialisés rapportent que la société a finalisé le développement de HBM4 avec une interface de 2 048 bits et une vitesse annoncée de 10 GT/s, dépassant le minimum de la spécification JEDEC, tout en plaçant LPDDR6 et d’autres technologies orientées serveurs et efficacité énergétique en ligne de mire. Pour le marché, l’enjeu est clair : sans avancées en matière de mémoire et de packaging, la montée en puissance des modèles sera plus coûteuse et moins durable.
Robotics, santé numérique et créateurs : le CES veut démontrer l’utilité, pas seulement la puissance
Au-delà de la puissance de calcul, la direction du CES insiste pour que 2026 soit une édition où la technologie sera “appliquée” : robotique liée à la sécurité, à la durabilité et à la productivité ; santé numérique à vocation de produit ; et un espace Creator Space élargi pour refléter que le contenu — et les outils pour le produire — font déjà partie intégrante de l’économie du secteur.
En résumé, le portrait du CES 2026 est cohérent : l’IA entraîne une réorganisation complète de la chaine technologique, depuis les puces et réseaux jusqu’aux formats d’exposition, aux espaces, aux démonstrations et aux messages corporate. Et, avant tout, une idée traverse quasiment toutes les annonces : l’efficacité (coût par token, performance par watt, facilité opérationnelle) commence à peser autant que la puissance brute.
Questions fréquentes (FAQ)
Qu’est-ce que CES Foundry et pourquoi en parle-t-on autant lors du CES 2026 ?
Il s’agit d’un nouveau format dans le cadre du CES, dédié aux discussions d’affaires et de technologie centrées sur l’IA et l’informatique quantique, conçu pour connecter véritablement innovation, adoption industrielle et investissements.
Que signifie que NVIDIA Rubin soit “une plateforme composée de six puces” et pas seulement une GPU ?
Cela signifie que NVIDIA intègre CPU, GPU, réseau, DPU et commutation dans un système co-construit, avec pour objectif de réduire les coûts et d’accélérer l’entraînement et l’inférence à grande échelle.
Pourquoi parle-t-on autant du “coût par token” en inférence avec cette nouvelle génération de hardware ?
Parce que les modèles avec raisonnement, agents et longues séquences utilisent beaucoup plus de tokens ; si leur coût devient prohibitif, le cas d’usage n’est plus viable, même si la technologie est en place.
Que représente l’HBM4 par rapport aux générations précédentes pour l’infrastructure IA ?
L’HBM4 cherche à augmenter le bande passante et l’efficience de la mémoire haute performance, point critique pour alimenter les accélérateurs et éviter les goulots d’étranglement à mesure que les modèles grossissent et que la demande en données s’accroît.
source : ces.tech