Auteur : Info Cloud

NVIDIA et OpenAI portent l'inférence à 1,5 million de tokens par seconde avec les modèles GPT-OSS sur l'architecture Blackwell

NVIDIA et OpenAI portent l’inférence à 1,5 million de tokens par seconde avec les modèles GPT-OSS sur l’architecture Blackwell

NVIDIA et OpenAI ont franchi une nouvelle étape dans la performance de l’intelligence artificielle avec le lancement des modèles open source gpt-oss-20b et gpt-oss-120b, optimisés pour l’architecture Blackwell. Selon la société, le plus grand modèle atteint jusqu’à 1,5 million de tokens par seconde (TPS) sur un système NVIDIA GB200 NVL72, ce qui permettrait de servir environ 50 000 utilisateurs simultanément. Ces modèles, axés sur le raisonnement textuel, intègrent la capacité de chaîne de pensée (chain-of-thought) et des appels à des outils, en s’appuyant sur une architecture Mixture of Experts (MoE) avec des activations SwigGLU. Ils comportent des couches d’attention équipées de RoPE pour gérer jusqu’à 128 000 tokens, alternant entre attention complète et une fenêtre glissante de 128 tokens. Les

Amazon et NVIDIA progressent vers la fabrication autonome avec des jumeaux numériques et la robotique IA physique

Amazon et NVIDIA progressent vers la fabrication autonome avec des jumeaux numériques et la robotique IA physique

Amazon Devices & Services a franchi une étape majeure vers la production « zéro-contact », sans intervention humaine directe, en déployant dans l’une de ses usines un système d’intelligence artificielle physique basé sur les technologies de jumeaux numériques de NVIDIA. Cette solution combine simulation hyperréaliste, génération de données synthétiques et planification autonome pour entraîner des bras robotiques capables d’inspecter les produits, d’auditer la qualité et d’adapter les lignes de production à de nouveaux appareils, sans nécessiter de modifications matérielles. La stratégie d’Amazon repose sur une approche dite « simulation-first », c’est-à-dire entraîner et valider tous les processus dans des environnements virtuels avant leur mise en œuvre dans le monde réel. Des jumeaux numériques via NVIDIA Omniverse recréent précisément les stations

NETinVM : L'outil qui révolutionne l'apprentissage des réseaux et de la cybersécurité

NETinVM : L’outil qui révolutionne l’apprentissage des réseaux et de la cybersécurité

Les professionnels et étudiants en réseaux et cybersécurité découvrent une solution innovante : NETinVM. Cet outil pédagogique permet de créer un laboratoire réseau complet au sein d’une seule machine virtuelle, offrant ainsi un environnement sécurisé et réaliste pour l’expérimentation. NETinVM (REseau dans une Machine Virtuelle), développé par Carlos Pérez et David Pérez de l’Université de Valence, marque une avancée majeure dans l’enseignement de la technologie. Cette plateforme encapsule tout un réseau de systèmes virtuels dans une seule machine hôte, supprimant le besoin de matériel supplémentaire ou le risque d’atteindre des réseaux réels. L’architecture repose sur une machine principale fournissant des services essentiels comme DHCP, DNS et NTP. Elle héberge trois réseaux virtuels connectés : un réseau externe simulant Internet, une

Intel renforce le Project Battlematrix avec LLM Scaler v1.0 : jusqu’à 80 % de performance supplémentaire sur les GPU Arc Pro et prise en charge avancée de l’IA multimodale

Intel renforce le Project Battlematrix avec LLM Scaler v1.0 : jusqu’à 80 % de performance supplémentaire sur les GPU Arc Pro et prise en charge avancée de l’IA multimodale

Intel ha realizado un avance estratégico en su apuesta por el mercado de inteligencia artificial empresarial con la introducción de la versión 1.0 de LLM Scaler, la primera gran actualización del software para su proyecto Project Battlematrix. Esta nueva versión promete un incremento de hasta el 80 % en rendimiento, con optimizaciones específicas para modelos de lenguaje de gran tamaño (LLMs), además de soporte ampliado para IA multimodal y nuevas herramientas de gestión para empresas. Presentado en Computex 2025, Project Battlematrix fue concebido como una solución integral para la inferencia de IA en estaciones de trabajo y entornos multi-GPU basados en Intel Arc Pro. Intel había anunciado que en el tercer trimestre lanzaría un contenedor “Inference Optimized”, compatible con vLLM,

NVIDIA stimule l'accélération de l'IA professionnelle avec des GPU compacts basés sur l'architecture Blackwell

NVIDIA stimule l’accélération de l’IA professionnelle avec des GPU compacts basés sur l’architecture Blackwell

L’accélération de l’intelligence artificielle ne reste plus l’apanage des grands centres de données. NVIDIA a dévoilé deux nouvelles cartes graphiques conçues pour porter les performances de son architecture Blackwell vers des stations de travail compactes et à faible consommation : la RTX PRO 4000 Blackwell SFF Edition et la RTX PRO 2000 Blackwell. Ces nouvelles GPU visent à répondre à la demande croissante en intelligence artificielle professionnelle dans tous les secteurs, quelle que soit la taille ou la forme de la station de travail. Elles s’adressent aux ingénieurs, designers, créateurs de contenu ainsi qu’aux professionnels de l’architecture, de la construction, de la santé ou de l’administration publique. Dotées de cœurs RT de quatrième génération et de cœurs Tensor de cinquième

Hewlett Packard Enterprise renforce son leadership dans le cloud hybride avec de nouvelles solutions chez HPE GreenLake

Kyndryl et HPE renforcent leur alliance mondiale pour accélérer l’adoption des nuages privés d’IA avec NVIDIA

Kyndryl, leader mondial des services technologiques critiques pour les entreprises, annonce le renforcement de son partenariat stratégique mondial avec Hewlett Packard Enterprise (HPE) pour encourager le déploiement de HPE Private Cloud AI. Cette solution clé en main, conçue comme une « usine d’IA » et co-développée avec NVIDIA, vise à fournir aux organisations un environnement sécurisé, évolutif et optimisé pour exécuter des charges de travail en intelligence artificielle, aussi bien en cloud privé que sur site, en tirant parti de la plateforme NVIDIA AI Computing by HPE. Grâce à son service Kyndryl Consult, l’entreprise intégrera ses outils et accélérateurs spécialisés en IA privée afin d’accompagner ses clients, du design initial à la mise en opération à grande échelle. Ce service

NVIDIA et OpenAI portent l'inférence à 1,5 million de tokens par seconde avec les modèles GPT-OSS sur l'architecture Blackwell

NVIDIA et OpenAI portent l’inférence à 1,5 million de tokens par seconde avec les modèles GPT-OSS sur l’architecture Blackwell

NVIDIA et OpenAI ont franchi une nouvelle étape dans la performance de l’intelligence artificielle avec le lancement des modèles open source gpt-oss-20b et gpt-oss-120b, optimisés pour l’architecture Blackwell. Selon la société, le plus grand modèle atteint jusqu’à 1,5 million de tokens par seconde (TPS) sur un système NVIDIA GB200 NVL72, ce qui permettrait de servir environ 50 000 utilisateurs simultanément. Ces modèles, axés sur le raisonnement textuel, intègrent la capacité de chaîne de pensée (chain-of-thought) et des appels à des outils, en s’appuyant sur une architecture Mixture of Experts (MoE) avec des activations SwigGLU. Ils comportent des couches d’attention équipées de RoPE pour gérer jusqu’à 128 000 tokens, alternant entre attention complète et une fenêtre glissante de 128 tokens. Les

Amazon et NVIDIA progressent vers la fabrication autonome avec des jumeaux numériques et la robotique IA physique

Amazon et NVIDIA progressent vers la fabrication autonome avec des jumeaux numériques et la robotique IA physique

Amazon Devices & Services a franchi une étape majeure vers la production « zéro-contact », sans intervention humaine directe, en déployant dans l’une de ses usines un système d’intelligence artificielle physique basé sur les technologies de jumeaux numériques de NVIDIA. Cette solution combine simulation hyperréaliste, génération de données synthétiques et planification autonome pour entraîner des bras robotiques capables d’inspecter les produits, d’auditer la qualité et d’adapter les lignes de production à de nouveaux appareils, sans nécessiter de modifications matérielles. La stratégie d’Amazon repose sur une approche dite « simulation-first », c’est-à-dire entraîner et valider tous les processus dans des environnements virtuels avant leur mise en œuvre dans le monde réel. Des jumeaux numériques via NVIDIA Omniverse recréent précisément les stations

NETinVM : L'outil qui révolutionne l'apprentissage des réseaux et de la cybersécurité

NETinVM : L’outil qui révolutionne l’apprentissage des réseaux et de la cybersécurité

Les professionnels et étudiants en réseaux et cybersécurité découvrent une solution innovante : NETinVM. Cet outil pédagogique permet de créer un laboratoire réseau complet au sein d’une seule machine virtuelle, offrant ainsi un environnement sécurisé et réaliste pour l’expérimentation. NETinVM (REseau dans une Machine Virtuelle), développé par Carlos Pérez et David Pérez de l’Université de Valence, marque une avancée majeure dans l’enseignement de la technologie. Cette plateforme encapsule tout un réseau de systèmes virtuels dans une seule machine hôte, supprimant le besoin de matériel supplémentaire ou le risque d’atteindre des réseaux réels. L’architecture repose sur une machine principale fournissant des services essentiels comme DHCP, DNS et NTP. Elle héberge trois réseaux virtuels connectés : un réseau externe simulant Internet, une

Intel renforce le Project Battlematrix avec LLM Scaler v1.0 : jusqu’à 80 % de performance supplémentaire sur les GPU Arc Pro et prise en charge avancée de l’IA multimodale

Intel renforce le Project Battlematrix avec LLM Scaler v1.0 : jusqu’à 80 % de performance supplémentaire sur les GPU Arc Pro et prise en charge avancée de l’IA multimodale

Intel ha realizado un avance estratégico en su apuesta por el mercado de inteligencia artificial empresarial con la introducción de la versión 1.0 de LLM Scaler, la primera gran actualización del software para su proyecto Project Battlematrix. Esta nueva versión promete un incremento de hasta el 80 % en rendimiento, con optimizaciones específicas para modelos de lenguaje de gran tamaño (LLMs), además de soporte ampliado para IA multimodal y nuevas herramientas de gestión para empresas. Presentado en Computex 2025, Project Battlematrix fue concebido como una solución integral para la inferencia de IA en estaciones de trabajo y entornos multi-GPU basados en Intel Arc Pro. Intel había anunciado que en el tercer trimestre lanzaría un contenedor “Inference Optimized”, compatible con vLLM,

NVIDIA stimule l'accélération de l'IA professionnelle avec des GPU compacts basés sur l'architecture Blackwell

NVIDIA stimule l’accélération de l’IA professionnelle avec des GPU compacts basés sur l’architecture Blackwell

L’accélération de l’intelligence artificielle ne reste plus l’apanage des grands centres de données. NVIDIA a dévoilé deux nouvelles cartes graphiques conçues pour porter les performances de son architecture Blackwell vers des stations de travail compactes et à faible consommation : la RTX PRO 4000 Blackwell SFF Edition et la RTX PRO 2000 Blackwell. Ces nouvelles GPU visent à répondre à la demande croissante en intelligence artificielle professionnelle dans tous les secteurs, quelle que soit la taille ou la forme de la station de travail. Elles s’adressent aux ingénieurs, designers, créateurs de contenu ainsi qu’aux professionnels de l’architecture, de la construction, de la santé ou de l’administration publique. Dotées de cœurs RT de quatrième génération et de cœurs Tensor de cinquième

Hewlett Packard Enterprise renforce son leadership dans le cloud hybride avec de nouvelles solutions chez HPE GreenLake

Kyndryl et HPE renforcent leur alliance mondiale pour accélérer l’adoption des nuages privés d’IA avec NVIDIA

Kyndryl, leader mondial des services technologiques critiques pour les entreprises, annonce le renforcement de son partenariat stratégique mondial avec Hewlett Packard Enterprise (HPE) pour encourager le déploiement de HPE Private Cloud AI. Cette solution clé en main, conçue comme une « usine d’IA » et co-développée avec NVIDIA, vise à fournir aux organisations un environnement sécurisé, évolutif et optimisé pour exécuter des charges de travail en intelligence artificielle, aussi bien en cloud privé que sur site, en tirant parti de la plateforme NVIDIA AI Computing by HPE. Grâce à son service Kyndryl Consult, l’entreprise intégrera ses outils et accélérateurs spécialisés en IA privée afin d’accompagner ses clients, du design initial à la mise en opération à grande échelle. Ce service