Catégorie : Cloud

NVIDIA renforce son engagement dans l'infrastructure IA avec BlueField-4 STX, une architecture de stockage conçue pour les agents et les contextes longs

NVIDIA Groq 3 LPX : le nouveau moteur pour l’inférence à faible latence

La grande course de l’IA ne se limite plus à la maîtrise de modèles de plus en plus gros. De plus en plus, le véritable goulet d’étranglement réside dans l’inférence: le temps nécessaire à un système pour commencer à répondre, la latence accumulée lorsque plusieurs agents interagissent et le coût pour maintenir cette rapidité à grande échelle. Dans ce contexte, NVIDIA a présenté Groq 3 LPX, un nouvel accélérateur rack-scale pour la plateforme Vera Rubin conçu spécifiquement pour des charges d’inférence à faible latence et pour gérer de très longs contextes, deux éléments toujours plus cruciaux dans la dénommée IA agentique. La société le présente comme un complément à Vera Rubin NVL72, et non comme un remplaçant de ses GPU

ASUS se lance dans l'IA liquide avec Vera Rubin et des agents autonomes locaux

ASUS se lance dans l’IA liquide avec Vera Rubin et des agents autonomes locaux

ASUS a profité du GTC 2026 pour présenter l’une de ses initiatives les plus audacieuses dans le domaine de l’infrastructure de l’intelligence artificielle : une gamme complète de systèmes allant de fermes d’IA à l’échelle de racks jusqu’aux stations de bureau, à l’edge et aux solutions enterprise, le tout articulé autour de la plateforme NVIDIA Vera Rubin. Le message de la société taïwanaise est clair : la prochaine vague d’IA ne se limitera pas aux grands centres de données, mais s’étendra à une combinaison de haute performance, de refroidissement avancé, de flexibilité de déploiement et de contrôle local des données. La nouveauté la plus visible est leur infrastructure entièrement refroidie par liquide, avec laquelle ASUS souhaite répondre à une réalité

Vultr intègre les GPU AMD Instinct MI355X dans son offre cloud et bare metal

Vultr s’appuie sur NVIDIA et NetApp pour accélérer l’inférence d’IA

La carrière de l’intelligence artificielle d’entreprise ne tourne plus uniquement autour de l’entraînement de modèles de plus en plus volumineux. Le véritable goulet d’étranglement commence à se situer ailleurs : comment déployer ces modèles, les alimenter avec des données pertinentes, assurer leur scalabilité et maîtriser les coûts d’inférence lors de leur mise en production. C’est dans ce contexte que Vultr a souhaité agir avec une nouvelle annonce, en collaboration avec NVIDIA et NetApp, axée sur une architecture optimisée pour l’inférence IA destinée aux entreprises. La société a indiqué qu’elle adopterait la plateforme NVIDIA Vera Rubin, le framework NVIDIA Dynamo et la famille de modèles NVIDIA Nemotron afin de renforcer son offre en infrastructure d’IA. Le message est clair : fournir

Dell amène les agents autonomes sur le bureau avec GB300 et OpenShell

Dell amène les agents autonomes sur le bureau avec GB300 et OpenShell

Dell Technologies souhaite propulser la prochaine étape de l’IA d’entreprise en sortant du simple centre de données pour la rapprocher du poste de travail du développeur. La société a annoncé la prise en charge de NVIDIA NemoClaw et NVIDIA OpenShell sur ses stations Dell Pro Max avec GB10 et GB300. Cette configuration vise à construire et exécuter des agents autonomes de longue durée en local, offrant ainsi un contrôle accru sur la confidentialité, les permissions et la sécurité. Dell se positionne également comme le premier OEM à commercialiser un poste de bureau avec le NVIDIA GB300 Grace Blackwell Ultra Desktop Superchip, une machine qui offre des performances jusqu’à présent réservées à l’infrastructure de laboratoire ou de clusters. Ce mouvement illustre

AWS mène la durabilité dans la construction de centres de données en Suède avec de l'acier à faible teneur en carbone

AWS amène les agents dans la chaîne : c’est ainsi qu’il souhaite changer la relation avec ses partenaires

Amazon Web Services a choisi d’étendre l’automatisation avec des agents à l’un des secteurs les plus sensibles de ses activités : la gestion des partenaires. La société a présenté AWS Partner Central agents, une nouvelle expérience intégrée à AWS Partner Central et construite sur Amazon Bedrock AgentCore. Son objectif est de réduire les tâches administratives, d’accélérer la vente conjointe et de faciliter l’accès aux programmes de financement au sein de l’écosystème partenaire d’AWS. Ce lancement, annoncé via le blog officiel d’AWS dédié aux partenaires, positionne cette nouvelle couche d’agents comme un outil conçu pour aider les équipes commerciales et de partenariat à travailler avec plus de contexte et moins de friction. Selon Nicole Schreiber, responsable de l’expérience partenaire chez AWS,

La Chine veut sa propre ASML : l'industrie des puces réclame un plan national pour réduire l'une de ses plus grandes dépendances

ASML supprime 1 700 emplois en préparation de sa grande expansion à Eindhoven

Sept semaines après l’annonce d’une réduction de 1 700 postes dans la gestion, ASML demeure sans clarifier quels employés seront réellement impactés. L’incertitude est devenue l’une des principales sources de tension au sein du fabricant néerlandais d’équipements pour semi-conducteurs, une entreprise essentielle pour l’industrie mondiale des puces et, en même temps, un symbole technologique majeur de l’Europe. Ce cas retient particulièrement l’attention car il intervient à un moment où la société affiche une santé financière solide. ASML a terminé 2025 avec un chiffre d’affaires record de 32,7 milliards d’euros et un bénéfice net de 9,6 milliards, tout en prévoyant pour 2026 des ventes comprises entre 34 et 39 milliards d’euros. En d’autres termes, l’entreprise anticipe une croissance continue tout en

NVIDIA renforce son engagement dans l'infrastructure IA avec BlueField-4 STX, une architecture de stockage conçue pour les agents et les contextes longs

NVIDIA Groq 3 LPX : le nouveau moteur pour l’inférence à faible latence

La grande course de l’IA ne se limite plus à la maîtrise de modèles de plus en plus gros. De plus en plus, le véritable goulet d’étranglement réside dans l’inférence: le temps nécessaire à un système pour commencer à répondre, la latence accumulée lorsque plusieurs agents interagissent et le coût pour maintenir cette rapidité à grande échelle. Dans ce contexte, NVIDIA a présenté Groq 3 LPX, un nouvel accélérateur rack-scale pour la plateforme Vera Rubin conçu spécifiquement pour des charges d’inférence à faible latence et pour gérer de très longs contextes, deux éléments toujours plus cruciaux dans la dénommée IA agentique. La société le présente comme un complément à Vera Rubin NVL72, et non comme un remplaçant de ses GPU

ASUS se lance dans l'IA liquide avec Vera Rubin et des agents autonomes locaux

ASUS se lance dans l’IA liquide avec Vera Rubin et des agents autonomes locaux

ASUS a profité du GTC 2026 pour présenter l’une de ses initiatives les plus audacieuses dans le domaine de l’infrastructure de l’intelligence artificielle : une gamme complète de systèmes allant de fermes d’IA à l’échelle de racks jusqu’aux stations de bureau, à l’edge et aux solutions enterprise, le tout articulé autour de la plateforme NVIDIA Vera Rubin. Le message de la société taïwanaise est clair : la prochaine vague d’IA ne se limitera pas aux grands centres de données, mais s’étendra à une combinaison de haute performance, de refroidissement avancé, de flexibilité de déploiement et de contrôle local des données. La nouveauté la plus visible est leur infrastructure entièrement refroidie par liquide, avec laquelle ASUS souhaite répondre à une réalité

Vultr intègre les GPU AMD Instinct MI355X dans son offre cloud et bare metal

Vultr s’appuie sur NVIDIA et NetApp pour accélérer l’inférence d’IA

La carrière de l’intelligence artificielle d’entreprise ne tourne plus uniquement autour de l’entraînement de modèles de plus en plus volumineux. Le véritable goulet d’étranglement commence à se situer ailleurs : comment déployer ces modèles, les alimenter avec des données pertinentes, assurer leur scalabilité et maîtriser les coûts d’inférence lors de leur mise en production. C’est dans ce contexte que Vultr a souhaité agir avec une nouvelle annonce, en collaboration avec NVIDIA et NetApp, axée sur une architecture optimisée pour l’inférence IA destinée aux entreprises. La société a indiqué qu’elle adopterait la plateforme NVIDIA Vera Rubin, le framework NVIDIA Dynamo et la famille de modèles NVIDIA Nemotron afin de renforcer son offre en infrastructure d’IA. Le message est clair : fournir

Dell amène les agents autonomes sur le bureau avec GB300 et OpenShell

Dell amène les agents autonomes sur le bureau avec GB300 et OpenShell

Dell Technologies souhaite propulser la prochaine étape de l’IA d’entreprise en sortant du simple centre de données pour la rapprocher du poste de travail du développeur. La société a annoncé la prise en charge de NVIDIA NemoClaw et NVIDIA OpenShell sur ses stations Dell Pro Max avec GB10 et GB300. Cette configuration vise à construire et exécuter des agents autonomes de longue durée en local, offrant ainsi un contrôle accru sur la confidentialité, les permissions et la sécurité. Dell se positionne également comme le premier OEM à commercialiser un poste de bureau avec le NVIDIA GB300 Grace Blackwell Ultra Desktop Superchip, une machine qui offre des performances jusqu’à présent réservées à l’infrastructure de laboratoire ou de clusters. Ce mouvement illustre

AWS mène la durabilité dans la construction de centres de données en Suède avec de l'acier à faible teneur en carbone

AWS amène les agents dans la chaîne : c’est ainsi qu’il souhaite changer la relation avec ses partenaires

Amazon Web Services a choisi d’étendre l’automatisation avec des agents à l’un des secteurs les plus sensibles de ses activités : la gestion des partenaires. La société a présenté AWS Partner Central agents, une nouvelle expérience intégrée à AWS Partner Central et construite sur Amazon Bedrock AgentCore. Son objectif est de réduire les tâches administratives, d’accélérer la vente conjointe et de faciliter l’accès aux programmes de financement au sein de l’écosystème partenaire d’AWS. Ce lancement, annoncé via le blog officiel d’AWS dédié aux partenaires, positionne cette nouvelle couche d’agents comme un outil conçu pour aider les équipes commerciales et de partenariat à travailler avec plus de contexte et moins de friction. Selon Nicole Schreiber, responsable de l’expérience partenaire chez AWS,

La Chine veut sa propre ASML : l'industrie des puces réclame un plan national pour réduire l'une de ses plus grandes dépendances

ASML supprime 1 700 emplois en préparation de sa grande expansion à Eindhoven

Sept semaines après l’annonce d’une réduction de 1 700 postes dans la gestion, ASML demeure sans clarifier quels employés seront réellement impactés. L’incertitude est devenue l’une des principales sources de tension au sein du fabricant néerlandais d’équipements pour semi-conducteurs, une entreprise essentielle pour l’industrie mondiale des puces et, en même temps, un symbole technologique majeur de l’Europe. Ce cas retient particulièrement l’attention car il intervient à un moment où la société affiche une santé financière solide. ASML a terminé 2025 avec un chiffre d’affaires record de 32,7 milliards d’euros et un bénéfice net de 9,6 milliards, tout en prévoyant pour 2026 des ventes comprises entre 34 et 39 milliards d’euros. En d’autres termes, l’entreprise anticipe une croissance continue tout en