Auteur : Info Cloud

ZF et Qualcomm renforcent leur alliance pour porter l'assistance à la conduite à une « architecture centrale » évolutive

ZF et Qualcomm renforcent leur alliance pour porter l’assistance à la conduite à une « architecture centrale » évolutive

La course à la voiture définie par logiciel entre dans une phase plus pragmatique : moins de promesses grandioses et plus de plateformes capables d’intégrer des fonctions avancées d’aide à la conduite (ADAS) à une variété de modèles, gammes et marchés, sans nécessiter de repenser entièrement le véhicule. Dans ce contexte, ZF et Qualcomm Technologies ont annoncé une collaboration technologique visant à offrir une solution ADAS évolutive basée sur le superordinateur automobile ZF ProAI et la plateforme Snapdragon Ride. Selon les deux entreprises, l’objectif est de combiner puissance de calcul, perception et architecture ouverte permettant aux constructeurs d’intégrer des logiciels tiers et d’adapter le « package » de fonctionnalités à chaque véhicule. En d’autres termes : un noyau technologique unique

NVIDIA veut que la « mémoire » des agents d'IA survive en dehors du GPU : voici sa nouvelle plateforme de stockage avec BlueField-4

NVIDIA veut que la « mémoire » des agents d’IA survive en dehors du GPU : voici sa nouvelle plateforme de stockage avec BlueField-4

Dans la course effrénée pour faire avancer l’IA agéntique (modèles capables d’enchaîner les tâches, de raisonner sur une période plus longue et de maintenir des conversations avec contexte), NVIDIA concentre actuellement ses efforts sur une problématique très précise : la mémoire de contexte. Lors du CES, la société a annoncé que son BlueField-4 (un processeur de données / DPU) sera l’élément clé pour impulser la Plateforme de stockage de mémoire de contexte pour l’inférence NVIDIA, une solution de « stockage natif pour l’IA » conçue pour l’inférence à grande échelle et pour partager rapidement le contexte entre noeuds. Le goulot d’étranglement : le cache KV, la « mémoire » qui ne tient pas éternellement sur la GPU À mesure que

SK hynix présente sa nouvelle génération de mémoire pour l'ère de l'intelligence artificielle au CES 2026 : HBM4 de 48 GB, SO-CA MM2, LPDDR6 et NAND de 321 couches

SK hynix présente sa nouvelle génération de mémoire pour l’ère de l’intelligence artificielle au CES 2026 : HBM4 de 48 GB, SO-CA MM2, LPDDR6 et NAND de 321 couches

Dans la course à la Intelligence Artificielle (IA), les grandes batailles ne se jouent plus uniquement dans les accélérateurs ou les processeurs. De plus en plus souvent, le point limité se trouve dans la mémoire : la quantité pouvant être intégrée, la vitesse de transfert de données et, surtout, la consommation énergétique lors de ces échanges. Dans ce contexte, SK hynix a choisi le CES 2026 pour dévoiler une feuille de route qui indique directement les prochains grands progrès de l’industrie : depuis la haute capacité de la HBM4 jusqu’à de nouveaux modules conçus pour les serveurs d’IA et la mémoire mobile adaptée à “l’IA en appareil” (on-device AI). La société sud-coréenne a annoncé l’ouverture d’un stand d’exposition pour les

Alpamayo : le « modèle professeur » ouvert de NVIDIA pour maîtriser la longue traîne de la voiture autonome

Alpamayo : le « modèle professeur » ouvert de NVIDIA pour maîtriser la longue traîne de la voiture autonome

En conduite autonome, le véritable obstacle ne réside pas simplement à circuler sur une autoroute par beau temps. Il se trouve dans tous ces rares événements qui, lorsqu’ils surviennent, transforment complètement la situation : un virage manqué à cause de travaux mal signalés, un véhicule arrêté qui oblige à une manœuvre imprévue, un piéton surgissant derrière un obstacle, ou encore une combinaison de pluie, de reflets et de marquages au sol détériorés. L’industrie résume cette complexité avec un terme désormais courant : la long tail, la “queue longue” de scénarios rares et complexes qui freine encore la progression vers des déploiements robustes de niveau 4. Lors du CES, NVIDIA a décidé d’aborder cette zone grise avec une stratégie alliant ouverture

NVIDIA Rubin : six puces, un « superordinateur » et la course à la réduction du coût du jeton à l’ère de l’IA de raisonnement

NVIDIA Rubin : six puces, un « superordinateur » et la course à la réduction du coût du jeton à l’ère de l’IA de raisonnement

NVIDIA a profité de l’enceinte du CES de Las Vegas pour annoncer le lancement de sa nouvelle plateforme de calcul dédiée à l’Intelligence Artificielle. Appelée Rubin, en hommage à l’astronome Vera Florence Cooper Rubin, cette plateforme véhicule un message fort : la demande en puissance de calcul pour l’entraînement et l’inférence « explose », entraînant une hausse significative des coûts pour déployer des modèles avancés en production. La solution proposée par NVIDIA est une architecture intégrée : six nouveaux composants qui agissent comme un seul superordinateur d’IA. La plateforme Rubin repose sur un concept que la société qualifie de “co-design extrême” : CPU, GPU, réseau, sécurité, opérations et stockage évoluent de concert afin d’éviter que le système ne soit freiné

Radio millimétrique et térahertz : l'alternative au cuivre (et parfois à la fibre) pour connecter des racks d'IA

Radio millimétrique et térahertz : l’alternative au cuivre (et parfois à la fibre) pour connecter des racks d’IA

Dans la course à la création de systèmes d’Intelligence Artificielle de plus en plus puissants, il ne suffit pas simplement d’augmenter le nombre de GPU. Il est également crucial de déplacer les données à l’intérieur des racks à une vitesse extrêmement élevée et avec des latences très faibles. C’est là que les solutions “traditionnelles” commencent à montrer leurs limites : le cuivre devient plus épais, plus court, et plus difficile à alimenter ; tandis que l’optique, bien que prometteuse, n’est pas toujours rentable ou simple à mettre en œuvre lorsque la distance est courte, notamment pour relier des équipements à quelques mètres. Dans ce contexte, de nouvelles propositions, qui il y a peu encore ressemblaient à de la science-fiction, ont

ZF et Qualcomm renforcent leur alliance pour porter l'assistance à la conduite à une « architecture centrale » évolutive

ZF et Qualcomm renforcent leur alliance pour porter l’assistance à la conduite à une « architecture centrale » évolutive

La course à la voiture définie par logiciel entre dans une phase plus pragmatique : moins de promesses grandioses et plus de plateformes capables d’intégrer des fonctions avancées d’aide à la conduite (ADAS) à une variété de modèles, gammes et marchés, sans nécessiter de repenser entièrement le véhicule. Dans ce contexte, ZF et Qualcomm Technologies ont annoncé une collaboration technologique visant à offrir une solution ADAS évolutive basée sur le superordinateur automobile ZF ProAI et la plateforme Snapdragon Ride. Selon les deux entreprises, l’objectif est de combiner puissance de calcul, perception et architecture ouverte permettant aux constructeurs d’intégrer des logiciels tiers et d’adapter le « package » de fonctionnalités à chaque véhicule. En d’autres termes : un noyau technologique unique

NVIDIA veut que la « mémoire » des agents d'IA survive en dehors du GPU : voici sa nouvelle plateforme de stockage avec BlueField-4

NVIDIA veut que la « mémoire » des agents d’IA survive en dehors du GPU : voici sa nouvelle plateforme de stockage avec BlueField-4

Dans la course effrénée pour faire avancer l’IA agéntique (modèles capables d’enchaîner les tâches, de raisonner sur une période plus longue et de maintenir des conversations avec contexte), NVIDIA concentre actuellement ses efforts sur une problématique très précise : la mémoire de contexte. Lors du CES, la société a annoncé que son BlueField-4 (un processeur de données / DPU) sera l’élément clé pour impulser la Plateforme de stockage de mémoire de contexte pour l’inférence NVIDIA, une solution de « stockage natif pour l’IA » conçue pour l’inférence à grande échelle et pour partager rapidement le contexte entre noeuds. Le goulot d’étranglement : le cache KV, la « mémoire » qui ne tient pas éternellement sur la GPU À mesure que

SK hynix présente sa nouvelle génération de mémoire pour l'ère de l'intelligence artificielle au CES 2026 : HBM4 de 48 GB, SO-CA MM2, LPDDR6 et NAND de 321 couches

SK hynix présente sa nouvelle génération de mémoire pour l’ère de l’intelligence artificielle au CES 2026 : HBM4 de 48 GB, SO-CA MM2, LPDDR6 et NAND de 321 couches

Dans la course à la Intelligence Artificielle (IA), les grandes batailles ne se jouent plus uniquement dans les accélérateurs ou les processeurs. De plus en plus souvent, le point limité se trouve dans la mémoire : la quantité pouvant être intégrée, la vitesse de transfert de données et, surtout, la consommation énergétique lors de ces échanges. Dans ce contexte, SK hynix a choisi le CES 2026 pour dévoiler une feuille de route qui indique directement les prochains grands progrès de l’industrie : depuis la haute capacité de la HBM4 jusqu’à de nouveaux modules conçus pour les serveurs d’IA et la mémoire mobile adaptée à “l’IA en appareil” (on-device AI). La société sud-coréenne a annoncé l’ouverture d’un stand d’exposition pour les

Alpamayo : le « modèle professeur » ouvert de NVIDIA pour maîtriser la longue traîne de la voiture autonome

Alpamayo : le « modèle professeur » ouvert de NVIDIA pour maîtriser la longue traîne de la voiture autonome

En conduite autonome, le véritable obstacle ne réside pas simplement à circuler sur une autoroute par beau temps. Il se trouve dans tous ces rares événements qui, lorsqu’ils surviennent, transforment complètement la situation : un virage manqué à cause de travaux mal signalés, un véhicule arrêté qui oblige à une manœuvre imprévue, un piéton surgissant derrière un obstacle, ou encore une combinaison de pluie, de reflets et de marquages au sol détériorés. L’industrie résume cette complexité avec un terme désormais courant : la long tail, la “queue longue” de scénarios rares et complexes qui freine encore la progression vers des déploiements robustes de niveau 4. Lors du CES, NVIDIA a décidé d’aborder cette zone grise avec une stratégie alliant ouverture

NVIDIA Rubin : six puces, un « superordinateur » et la course à la réduction du coût du jeton à l’ère de l’IA de raisonnement

NVIDIA Rubin : six puces, un « superordinateur » et la course à la réduction du coût du jeton à l’ère de l’IA de raisonnement

NVIDIA a profité de l’enceinte du CES de Las Vegas pour annoncer le lancement de sa nouvelle plateforme de calcul dédiée à l’Intelligence Artificielle. Appelée Rubin, en hommage à l’astronome Vera Florence Cooper Rubin, cette plateforme véhicule un message fort : la demande en puissance de calcul pour l’entraînement et l’inférence « explose », entraînant une hausse significative des coûts pour déployer des modèles avancés en production. La solution proposée par NVIDIA est une architecture intégrée : six nouveaux composants qui agissent comme un seul superordinateur d’IA. La plateforme Rubin repose sur un concept que la société qualifie de “co-design extrême” : CPU, GPU, réseau, sécurité, opérations et stockage évoluent de concert afin d’éviter que le système ne soit freiné

Radio millimétrique et térahertz : l'alternative au cuivre (et parfois à la fibre) pour connecter des racks d'IA

Radio millimétrique et térahertz : l’alternative au cuivre (et parfois à la fibre) pour connecter des racks d’IA

Dans la course à la création de systèmes d’Intelligence Artificielle de plus en plus puissants, il ne suffit pas simplement d’augmenter le nombre de GPU. Il est également crucial de déplacer les données à l’intérieur des racks à une vitesse extrêmement élevée et avec des latences très faibles. C’est là que les solutions “traditionnelles” commencent à montrer leurs limites : le cuivre devient plus épais, plus court, et plus difficile à alimenter ; tandis que l’optique, bien que prometteuse, n’est pas toujours rentable ou simple à mettre en œuvre lorsque la distance est courte, notamment pour relier des équipements à quelques mètres. Dans ce contexte, de nouvelles propositions, qui il y a peu encore ressemblaient à de la science-fiction, ont