Catégorie : Cloud

Alpamayo : le « modèle professeur » ouvert de NVIDIA pour maîtriser la longue traîne de la voiture autonome

Alpamayo : le « modèle professeur » ouvert de NVIDIA pour maîtriser la longue traîne de la voiture autonome

En conduite autonome, le véritable obstacle ne réside pas simplement à circuler sur une autoroute par beau temps. Il se trouve dans tous ces rares événements qui, lorsqu’ils surviennent, transforment complètement la situation : un virage manqué à cause de travaux mal signalés, un véhicule arrêté qui oblige à une manœuvre imprévue, un piéton surgissant derrière un obstacle, ou encore une combinaison de pluie, de reflets et de marquages au sol détériorés. L’industrie résume cette complexité avec un terme désormais courant : la long tail, la “queue longue” de scénarios rares et complexes qui freine encore la progression vers des déploiements robustes de niveau 4. Lors du CES, NVIDIA a décidé d’aborder cette zone grise avec une stratégie alliant ouverture

NVIDIA Rubin : six puces, un « superordinateur » et la course à la réduction du coût du jeton à l’ère de l’IA de raisonnement

NVIDIA Rubin : six puces, un « superordinateur » et la course à la réduction du coût du jeton à l’ère de l’IA de raisonnement

NVIDIA a profité de l’enceinte du CES de Las Vegas pour annoncer le lancement de sa nouvelle plateforme de calcul dédiée à l’Intelligence Artificielle. Appelée Rubin, en hommage à l’astronome Vera Florence Cooper Rubin, cette plateforme véhicule un message fort : la demande en puissance de calcul pour l’entraînement et l’inférence « explose », entraînant une hausse significative des coûts pour déployer des modèles avancés en production. La solution proposée par NVIDIA est une architecture intégrée : six nouveaux composants qui agissent comme un seul superordinateur d’IA. La plateforme Rubin repose sur un concept que la société qualifie de “co-design extrême” : CPU, GPU, réseau, sécurité, opérations et stockage évoluent de concert afin d’éviter que le système ne soit freiné

Radio millimétrique et térahertz : l'alternative au cuivre (et parfois à la fibre) pour connecter des racks d'IA

Radio millimétrique et térahertz : l’alternative au cuivre (et parfois à la fibre) pour connecter des racks d’IA

Dans la course à la création de systèmes d’Intelligence Artificielle de plus en plus puissants, il ne suffit pas simplement d’augmenter le nombre de GPU. Il est également crucial de déplacer les données à l’intérieur des racks à une vitesse extrêmement élevée et avec des latences très faibles. C’est là que les solutions “traditionnelles” commencent à montrer leurs limites : le cuivre devient plus épais, plus court, et plus difficile à alimenter ; tandis que l’optique, bien que prometteuse, n’est pas toujours rentable ou simple à mettre en œuvre lorsque la distance est courte, notamment pour relier des équipements à quelques mètres. Dans ce contexte, de nouvelles propositions, qui il y a peu encore ressemblaient à de la science-fiction, ont

CES 2026 prépare le terrain : le salon qui veut faire de l'intelligence artificielle une infrastructure quotidienne

CES 2026 prépare le terrain : le salon qui veut faire de l’intelligence artificielle une infrastructure quotidienne

Las Vegas redevient cette semaine le véritable vitrine où l’industrie technologique tente de tracer la voie pour l’année à venir. Le CES 2026 n’arrive pas seulement avec son lot habituel d’ordinateurs portables, de téléviseurs et de gadgets, mais avec une ambition plus concrète : faire que l’Intelligence Artificielle ne soit plus perçue comme “une couche de logiciel” mais comme une nouvelle infrastructure, allant du centre de données jusqu’au bureau d’un développeur. La propre organisation du CES, en amont de l’événement, souligne que cette édition mettra en lumière des tendances qui ne sont plus cloisonnées dans les laboratoires : robotiques “de salon à usine”, santé numérique avec une volonté de déploiement réel et un espace élargi pour les créateurs. Elle introduira

AMD introduit l'intelligence artificielle à la “frontière” avec Ryzen AI Embedded : une seule puce pour voitures, usines et robotique

AMD introduit l’intelligence artificielle à la “frontière” avec Ryzen AI Embedded : une seule puce pour voitures, usines et robotique

AMD a dévoilé une nouvelle famille de processeurs x86 embarqués, conçus pour exécuter des charges de travail en Intelligence Artificielle directement en périphérie, là où les données sont générées et où la latence ainsi que la consommation d’énergie sont prioritaires : dans les véhicules, sur les lignes de production ou au sein de systèmes autonomes devant réagir en temps réel. La société, basée à Santa Clara (Californie), a annoncé la gamme AMD Ryzen AI Embedded, un portefeuille débutant avec les séries P100 et X100. Ces solutions combinent sur une seule puce trois composants qui, jusqu’à récemment, étaient généralement mandatories séparément : une CPU “Zen 5”, une GPU RDNA 3.5 et une NPU XDNA 2. L’objectif, selon AMD, est clair :

2026, l'année où la mémoire devient le moteur de l'IA : SK hynix mise sur un « supercycle » dominé par le HBM3E et la transition vers le HBM4

2026, l’année où la mémoire devient le moteur de l’IA : SK hynix mise sur un « supercycle » dominé par le HBM3E et la transition vers le HBM4

Le secteur mondial des semi-conducteurs amorce 2026 avec une sensation de tournant historique. Il ne s’agit pas uniquement de nouveaux processeurs, mais d’un reprofilage de la valeur: les flux financiers et les priorités technologiques se déplacent vers l’infrastructure de l’intelligence artificielle, et dans ce mouvement, la mémoire — DRAM, HBM et stockage d’entreprise — passe d’un rôle secondaire à celui de composant clé pour la performance et la rentabilité. C’est la thèse centrale de l’analyse de SK hynix sur le marché en 2026 : l’expansion de l’IA entraîne un cycle haussier dans la mémoire que certains banques et analystes qualifient déjà de “supercycle”. La firme sud-coréenne vise à en être au cœur grâce à sa position de leader en HBM3E

Alpamayo : le « modèle professeur » ouvert de NVIDIA pour maîtriser la longue traîne de la voiture autonome

Alpamayo : le « modèle professeur » ouvert de NVIDIA pour maîtriser la longue traîne de la voiture autonome

En conduite autonome, le véritable obstacle ne réside pas simplement à circuler sur une autoroute par beau temps. Il se trouve dans tous ces rares événements qui, lorsqu’ils surviennent, transforment complètement la situation : un virage manqué à cause de travaux mal signalés, un véhicule arrêté qui oblige à une manœuvre imprévue, un piéton surgissant derrière un obstacle, ou encore une combinaison de pluie, de reflets et de marquages au sol détériorés. L’industrie résume cette complexité avec un terme désormais courant : la long tail, la “queue longue” de scénarios rares et complexes qui freine encore la progression vers des déploiements robustes de niveau 4. Lors du CES, NVIDIA a décidé d’aborder cette zone grise avec une stratégie alliant ouverture

NVIDIA Rubin : six puces, un « superordinateur » et la course à la réduction du coût du jeton à l’ère de l’IA de raisonnement

NVIDIA Rubin : six puces, un « superordinateur » et la course à la réduction du coût du jeton à l’ère de l’IA de raisonnement

NVIDIA a profité de l’enceinte du CES de Las Vegas pour annoncer le lancement de sa nouvelle plateforme de calcul dédiée à l’Intelligence Artificielle. Appelée Rubin, en hommage à l’astronome Vera Florence Cooper Rubin, cette plateforme véhicule un message fort : la demande en puissance de calcul pour l’entraînement et l’inférence « explose », entraînant une hausse significative des coûts pour déployer des modèles avancés en production. La solution proposée par NVIDIA est une architecture intégrée : six nouveaux composants qui agissent comme un seul superordinateur d’IA. La plateforme Rubin repose sur un concept que la société qualifie de “co-design extrême” : CPU, GPU, réseau, sécurité, opérations et stockage évoluent de concert afin d’éviter que le système ne soit freiné

Radio millimétrique et térahertz : l'alternative au cuivre (et parfois à la fibre) pour connecter des racks d'IA

Radio millimétrique et térahertz : l’alternative au cuivre (et parfois à la fibre) pour connecter des racks d’IA

Dans la course à la création de systèmes d’Intelligence Artificielle de plus en plus puissants, il ne suffit pas simplement d’augmenter le nombre de GPU. Il est également crucial de déplacer les données à l’intérieur des racks à une vitesse extrêmement élevée et avec des latences très faibles. C’est là que les solutions “traditionnelles” commencent à montrer leurs limites : le cuivre devient plus épais, plus court, et plus difficile à alimenter ; tandis que l’optique, bien que prometteuse, n’est pas toujours rentable ou simple à mettre en œuvre lorsque la distance est courte, notamment pour relier des équipements à quelques mètres. Dans ce contexte, de nouvelles propositions, qui il y a peu encore ressemblaient à de la science-fiction, ont

CES 2026 prépare le terrain : le salon qui veut faire de l'intelligence artificielle une infrastructure quotidienne

CES 2026 prépare le terrain : le salon qui veut faire de l’intelligence artificielle une infrastructure quotidienne

Las Vegas redevient cette semaine le véritable vitrine où l’industrie technologique tente de tracer la voie pour l’année à venir. Le CES 2026 n’arrive pas seulement avec son lot habituel d’ordinateurs portables, de téléviseurs et de gadgets, mais avec une ambition plus concrète : faire que l’Intelligence Artificielle ne soit plus perçue comme “une couche de logiciel” mais comme une nouvelle infrastructure, allant du centre de données jusqu’au bureau d’un développeur. La propre organisation du CES, en amont de l’événement, souligne que cette édition mettra en lumière des tendances qui ne sont plus cloisonnées dans les laboratoires : robotiques “de salon à usine”, santé numérique avec une volonté de déploiement réel et un espace élargi pour les créateurs. Elle introduira

AMD introduit l'intelligence artificielle à la “frontière” avec Ryzen AI Embedded : une seule puce pour voitures, usines et robotique

AMD introduit l’intelligence artificielle à la “frontière” avec Ryzen AI Embedded : une seule puce pour voitures, usines et robotique

AMD a dévoilé une nouvelle famille de processeurs x86 embarqués, conçus pour exécuter des charges de travail en Intelligence Artificielle directement en périphérie, là où les données sont générées et où la latence ainsi que la consommation d’énergie sont prioritaires : dans les véhicules, sur les lignes de production ou au sein de systèmes autonomes devant réagir en temps réel. La société, basée à Santa Clara (Californie), a annoncé la gamme AMD Ryzen AI Embedded, un portefeuille débutant avec les séries P100 et X100. Ces solutions combinent sur une seule puce trois composants qui, jusqu’à récemment, étaient généralement mandatories séparément : une CPU “Zen 5”, une GPU RDNA 3.5 et une NPU XDNA 2. L’objectif, selon AMD, est clair :

2026, l'année où la mémoire devient le moteur de l'IA : SK hynix mise sur un « supercycle » dominé par le HBM3E et la transition vers le HBM4

2026, l’année où la mémoire devient le moteur de l’IA : SK hynix mise sur un « supercycle » dominé par le HBM3E et la transition vers le HBM4

Le secteur mondial des semi-conducteurs amorce 2026 avec une sensation de tournant historique. Il ne s’agit pas uniquement de nouveaux processeurs, mais d’un reprofilage de la valeur: les flux financiers et les priorités technologiques se déplacent vers l’infrastructure de l’intelligence artificielle, et dans ce mouvement, la mémoire — DRAM, HBM et stockage d’entreprise — passe d’un rôle secondaire à celui de composant clé pour la performance et la rentabilité. C’est la thèse centrale de l’analyse de SK hynix sur le marché en 2026 : l’expansion de l’IA entraîne un cycle haussier dans la mémoire que certains banques et analystes qualifient déjà de “supercycle”. La firme sud-coréenne vise à en être au cœur grâce à sa position de leader en HBM3E