La robotique traverse une étape décisive : il ne s’agit plus seulement de machines programmées pour exécuter une tâche répétitive, mais de systèmes capables de voir, raisonner et agir dans des environnements réels avec une flexibilité de plus en plus proche de celle de l’humain. Lors du CES 2026, NVIDIA a présenté un ensemble de modèles ouverts, frameworks et nouvelles infrastructures axés sur ce qu’elle qualifie d’“Intelligence Artificielle physique”, en partenariat avec des robots et machines autonomes issus de sociétés telles que Boston Dynamics, Caterpillar, Franka Robotics, Humanoid, LG Electronics ou NEURA Robotics.
Ce lancement est d’autant plus significatif d’un point de vue pratique : la réalisation de robots “généralistes-spécialistes” — capables d’apprendre plusieurs tâches et de s’adapter — requiert aujourd’hui une quantité importante de données, de simulations et d’entraînements, souvent inaccessible à de nombreuses équipes. La stratégie de NVIDIA vise à réduire cette barrière en fournissant des modèles de base et des outils qui permettent aux développeurs de sauter une partie de l’étape de pré-entraînement, pour se concentrer sur le fine-tuning, l’évaluation et l’intégration matérielle.
Modèles ouverts pour que les robots “comprennent” le monde
Au cœur de cette annonce, se trouvent les nouveaux modèles NVIDIA Cosmos et Isaac GR00T, conçus pour accélérer l’apprentissage et le raisonnement robotique. NVIDIA a également présenté Cosmos Transfer 2.5 et Cosmos Predict 2.5, des modèles de monde “entièrement personnalisables” pour générer des données synthétiques physiquement cohérentes et évaluer des politiques en simulation. À cela s’ajoute Cosmos Reason 2, un modèle de raisonnement vision-langage permettant aux machines de “voir, comprendre et agir” dans le monde physique.
La pièce maîtresse pour les humanoïdes est NVIDIA Isaac GR00T N1.6, dépeint comme un modèle VLA (vision-langage-action) dédié au contrôle complet du corps et soutenu par Cosmos Reason pour enrichir le raisonnement contextuel. Selon NVIDIA, plusieurs fabricants utilisent déjà ces flux pour simuler, entraîner et valider de nouveaux comportements avant leur déploiement sur robot physique.
L’objectif pratique est clair : diminuer le coût des “robots à fonction unique” — coûteux et difficiles à reprogrammer — pour favoriser le développement de machines plus polyvalentes, capables d’intégrer de nouvelles compétences avec moins de friction.
Du laboratoire à l’industrie : évaluation, orchestration et écosystème ouvert
La société s’emploie également à traiter un problème connu en robotique : le processus de développement est souvent fragmenté entre simulation, génération de données, entraînement, tests et déploiement. Pour simplifier cette complexité, NVIDIA a annoncé des outils open source disponibles sur GitHub.
Premièrement, Isaac Lab-Arena vise à standardiser l’évaluation et les benchmarks des politiques robotiques en simulation, en se connectant à des références existantes et en facilitant l’expérimentation à grande échelle avant de passer au matériel réel.
Deuxièmement, OSMO se présente comme un framework “cloud-native” d’orchestration destiné à unifier des processus tels que la génération de données synthétiques, l’entraînement et les tests logicielle dans divers environnements informatiques, allant de stations de travail à des infrastructures hybrides cloud. En résumé : moins de bricolage artisanal, un “centre de contrôle” unique pour gérer l’ensemble du cycle de développement.
Par ailleurs, NVIDIA a renforcé sa communauté en intégrant ses modèles et bibliothèques Isaac dans l’écosystème LeRobot via une collaboration avec Hugging Face. Cette initiative vise à permettre aux développeurs de perfectionner et évaluer plus facilement leurs politiques, dans un flux de travail plus intégré et moins fastidieux.
Matériel “edge” : Jetson T4000 et la nouvelle génération Blackwell en robotique
Si le logiciel et les modèles donnent l’intelligence, le corps doit fournir la puissance et l’efficacité énergétique… NVIDIA a annoncé que le module Jetson T4000, basé sur l’architecture Blackwell, est désormais disponible, et le positionne comme une évolution pour ceux qui utilisent déjà Jetson Orin en robotique et autonomie. L’entreprise met en avant une amélioration jusqu’à 4 fois de l’efficacité énergétique et des capacités de calcul en IA pour ce segment.
Dans ses spécifications techniques, le T4000 est décrit comme pouvant atteindre jusqu’à 1 200 TFLOPs FP4, doté de 64 GB de mémoire et d’une consommation configurable entre 40 et 70 W, adapté aux scénarios où la gestion de l’énergie et de la chaleur est critique (robotique industrielle, infrastructures intelligentes, automatisation).
La feuille de route inclut également NVIDIA IGX Thor, prévue “fin de ce mois”, qui étend la capacité de calcul haute performance au contrôle en temps réel dans l’industrie, avec un support logiciel adapté et une orientation sécurité renforcée.
Des robots “pour chaque secteur” : de l’industrie à la maison
Le panel de partenaires révèle la direction prise par la robotique en 2026 : des humanoïdes et manipulateurs mobiles aux machines autonomes pour les secteurs lourds. NVIDIA intègre des acteurs tels que Caterpillar pour déployer de l’IA avancée dans la construction et la mine, mais aussi d’autres partenaires qui proposent des robots pour la logistique, l’industrie ou encore le domestic.
De plus, la société met en avant des exemples d’adoption dans des domaines sensibles comme la santé, où la robotique ne se limite pas à automatiser, mais vise à assister avec précision et contexte en temps réel. En résumé, le progrès ne dépendra pas uniquement d’un “robot vedette”, mais de la combinaison de modèles, simulation, évaluation et matériel performant, permettant d’accélérer les cycles de développement et de déploiement avec assurance.
Questions fréquentes
Que signifie “Intelligence Artificielle physique” et en quoi diffère-t-elle d’un chatbot ?
Il s’agit de systèmes et modèles qui, au-delà de comprendre le langage, peuvent interpréter leur environnement (vision), raisonner sur ce qu’ils perçoivent, et agir dans le monde physique via des robots et capteurs, souvent en s’appuyant sur la simulation et des données synthétiques.
Quelle est la valeur d’un modèle VLA comme Isaac GR00T comparé à un LLM traditionnel ?
Un VLA (vision-langage-action) connecte perception (vision), instructions (langage) et exécution (action), permettant de traduire ce que le robot voit et comprend en mouvements et contrôle physique, ce qui est particulièrement critique pour les humanoïdes.
Dans quels cas le module Jetson T4000 est-il pertinent en robotique et edge computing ?
Il est adapté aux robots et systèmes autonomes nécessitant une inference locale avec des contraintes d’énergie et de chaleur (automatisation industrielle, robots mobiles, vision en temps réel), où le déploiement en cloud n’est pas envisageable pour des raisons de latence, de connectivité ou de confidentialité.
Comment l’intégration avec Hugging Face LeRobot bénéficie-t-elle aux petites équipes et startups ?
Elle facilite la réutilisation d’outils, d’environnements et de flux d’évaluation déjà dédiés à l’écosystème open source, réduisant le temps de configuration et rendant l’expérimentation et le benchmarking plus accessibles.
Source : nvidianews.nvidia