Catégorie : Cloud

Amazon ne abandonne pas l'IA, mais renforce les contrôles après ses derniers échecs

Amazon ne abandonne pas l’IA, mais renforce les contrôles après ses derniers échecs

Amazon ne ferme pas la porte à l’Intelligence Artificielle, mais a été contraint de recentrer sa stratégie. Suite à plusieurs incidents récents dans son secteur de la vente au détail, notamment une panne de plusieurs heures de son site web et de son application de shopping aux États-Unis, l’entreprise a reconnu qu’un de ces incidents était lié à l’utilisation d’outils d’IA assistant un ingénieur. Cependant, elle a tenu à préciser que l’idée selon laquelle sa plateforme serait victime d’une série de coupures causées par du « code écrit par l’IA » est erronée. Son message officiel est plus nuancé : le problème ne résidait pas dans une autonomie totale de l’outil, mais dans une recommandation incorrecte issue d’une documentation interne

NVIDIA renforce son engagement dans l'infrastructure IA avec BlueField-4 STX, une architecture de stockage conçue pour les agents et les contextes longs

NVIDIA Groq 3 LPX : le nouveau moteur pour l’inférence à faible latence

La grande course de l’IA ne se limite plus à la maîtrise de modèles de plus en plus gros. De plus en plus, le véritable goulet d’étranglement réside dans l’inférence: le temps nécessaire à un système pour commencer à répondre, la latence accumulée lorsque plusieurs agents interagissent et le coût pour maintenir cette rapidité à grande échelle. Dans ce contexte, NVIDIA a présenté Groq 3 LPX, un nouvel accélérateur rack-scale pour la plateforme Vera Rubin conçu spécifiquement pour des charges d’inférence à faible latence et pour gérer de très longs contextes, deux éléments toujours plus cruciaux dans la dénommée IA agentique. La société le présente comme un complément à Vera Rubin NVL72, et non comme un remplaçant de ses GPU

ASUS se lance dans l'IA liquide avec Vera Rubin et des agents autonomes locaux

ASUS se lance dans l’IA liquide avec Vera Rubin et des agents autonomes locaux

ASUS a profité du GTC 2026 pour présenter l’une de ses initiatives les plus audacieuses dans le domaine de l’infrastructure de l’intelligence artificielle : une gamme complète de systèmes allant de fermes d’IA à l’échelle de racks jusqu’aux stations de bureau, à l’edge et aux solutions enterprise, le tout articulé autour de la plateforme NVIDIA Vera Rubin. Le message de la société taïwanaise est clair : la prochaine vague d’IA ne se limitera pas aux grands centres de données, mais s’étendra à une combinaison de haute performance, de refroidissement avancé, de flexibilité de déploiement et de contrôle local des données. La nouveauté la plus visible est leur infrastructure entièrement refroidie par liquide, avec laquelle ASUS souhaite répondre à une réalité

Vultr intègre les GPU AMD Instinct MI355X dans son offre cloud et bare metal

Vultr s’appuie sur NVIDIA et NetApp pour accélérer l’inférence d’IA

La carrière de l’intelligence artificielle d’entreprise ne tourne plus uniquement autour de l’entraînement de modèles de plus en plus volumineux. Le véritable goulet d’étranglement commence à se situer ailleurs : comment déployer ces modèles, les alimenter avec des données pertinentes, assurer leur scalabilité et maîtriser les coûts d’inférence lors de leur mise en production. C’est dans ce contexte que Vultr a souhaité agir avec une nouvelle annonce, en collaboration avec NVIDIA et NetApp, axée sur une architecture optimisée pour l’inférence IA destinée aux entreprises. La société a indiqué qu’elle adopterait la plateforme NVIDIA Vera Rubin, le framework NVIDIA Dynamo et la famille de modèles NVIDIA Nemotron afin de renforcer son offre en infrastructure d’IA. Le message est clair : fournir

Dell amène les agents autonomes sur le bureau avec GB300 et OpenShell

Dell amène les agents autonomes sur le bureau avec GB300 et OpenShell

Dell Technologies souhaite propulser la prochaine étape de l’IA d’entreprise en sortant du simple centre de données pour la rapprocher du poste de travail du développeur. La société a annoncé la prise en charge de NVIDIA NemoClaw et NVIDIA OpenShell sur ses stations Dell Pro Max avec GB10 et GB300. Cette configuration vise à construire et exécuter des agents autonomes de longue durée en local, offrant ainsi un contrôle accru sur la confidentialité, les permissions et la sécurité. Dell se positionne également comme le premier OEM à commercialiser un poste de bureau avec le NVIDIA GB300 Grace Blackwell Ultra Desktop Superchip, une machine qui offre des performances jusqu’à présent réservées à l’infrastructure de laboratoire ou de clusters. Ce mouvement illustre

AWS mène la durabilité dans la construction de centres de données en Suède avec de l'acier à faible teneur en carbone

AWS amène les agents dans la chaîne : c’est ainsi qu’il souhaite changer la relation avec ses partenaires

Amazon Web Services a choisi d’étendre l’automatisation avec des agents à l’un des secteurs les plus sensibles de ses activités : la gestion des partenaires. La société a présenté AWS Partner Central agents, une nouvelle expérience intégrée à AWS Partner Central et construite sur Amazon Bedrock AgentCore. Son objectif est de réduire les tâches administratives, d’accélérer la vente conjointe et de faciliter l’accès aux programmes de financement au sein de l’écosystème partenaire d’AWS. Ce lancement, annoncé via le blog officiel d’AWS dédié aux partenaires, positionne cette nouvelle couche d’agents comme un outil conçu pour aider les équipes commerciales et de partenariat à travailler avec plus de contexte et moins de friction. Selon Nicole Schreiber, responsable de l’expérience partenaire chez AWS,

Amazon ne abandonne pas l'IA, mais renforce les contrôles après ses derniers échecs

Amazon ne abandonne pas l’IA, mais renforce les contrôles après ses derniers échecs

Amazon ne ferme pas la porte à l’Intelligence Artificielle, mais a été contraint de recentrer sa stratégie. Suite à plusieurs incidents récents dans son secteur de la vente au détail, notamment une panne de plusieurs heures de son site web et de son application de shopping aux États-Unis, l’entreprise a reconnu qu’un de ces incidents était lié à l’utilisation d’outils d’IA assistant un ingénieur. Cependant, elle a tenu à préciser que l’idée selon laquelle sa plateforme serait victime d’une série de coupures causées par du « code écrit par l’IA » est erronée. Son message officiel est plus nuancé : le problème ne résidait pas dans une autonomie totale de l’outil, mais dans une recommandation incorrecte issue d’une documentation interne

NVIDIA renforce son engagement dans l'infrastructure IA avec BlueField-4 STX, une architecture de stockage conçue pour les agents et les contextes longs

NVIDIA Groq 3 LPX : le nouveau moteur pour l’inférence à faible latence

La grande course de l’IA ne se limite plus à la maîtrise de modèles de plus en plus gros. De plus en plus, le véritable goulet d’étranglement réside dans l’inférence: le temps nécessaire à un système pour commencer à répondre, la latence accumulée lorsque plusieurs agents interagissent et le coût pour maintenir cette rapidité à grande échelle. Dans ce contexte, NVIDIA a présenté Groq 3 LPX, un nouvel accélérateur rack-scale pour la plateforme Vera Rubin conçu spécifiquement pour des charges d’inférence à faible latence et pour gérer de très longs contextes, deux éléments toujours plus cruciaux dans la dénommée IA agentique. La société le présente comme un complément à Vera Rubin NVL72, et non comme un remplaçant de ses GPU

ASUS se lance dans l'IA liquide avec Vera Rubin et des agents autonomes locaux

ASUS se lance dans l’IA liquide avec Vera Rubin et des agents autonomes locaux

ASUS a profité du GTC 2026 pour présenter l’une de ses initiatives les plus audacieuses dans le domaine de l’infrastructure de l’intelligence artificielle : une gamme complète de systèmes allant de fermes d’IA à l’échelle de racks jusqu’aux stations de bureau, à l’edge et aux solutions enterprise, le tout articulé autour de la plateforme NVIDIA Vera Rubin. Le message de la société taïwanaise est clair : la prochaine vague d’IA ne se limitera pas aux grands centres de données, mais s’étendra à une combinaison de haute performance, de refroidissement avancé, de flexibilité de déploiement et de contrôle local des données. La nouveauté la plus visible est leur infrastructure entièrement refroidie par liquide, avec laquelle ASUS souhaite répondre à une réalité

Vultr intègre les GPU AMD Instinct MI355X dans son offre cloud et bare metal

Vultr s’appuie sur NVIDIA et NetApp pour accélérer l’inférence d’IA

La carrière de l’intelligence artificielle d’entreprise ne tourne plus uniquement autour de l’entraînement de modèles de plus en plus volumineux. Le véritable goulet d’étranglement commence à se situer ailleurs : comment déployer ces modèles, les alimenter avec des données pertinentes, assurer leur scalabilité et maîtriser les coûts d’inférence lors de leur mise en production. C’est dans ce contexte que Vultr a souhaité agir avec une nouvelle annonce, en collaboration avec NVIDIA et NetApp, axée sur une architecture optimisée pour l’inférence IA destinée aux entreprises. La société a indiqué qu’elle adopterait la plateforme NVIDIA Vera Rubin, le framework NVIDIA Dynamo et la famille de modèles NVIDIA Nemotron afin de renforcer son offre en infrastructure d’IA. Le message est clair : fournir

Dell amène les agents autonomes sur le bureau avec GB300 et OpenShell

Dell amène les agents autonomes sur le bureau avec GB300 et OpenShell

Dell Technologies souhaite propulser la prochaine étape de l’IA d’entreprise en sortant du simple centre de données pour la rapprocher du poste de travail du développeur. La société a annoncé la prise en charge de NVIDIA NemoClaw et NVIDIA OpenShell sur ses stations Dell Pro Max avec GB10 et GB300. Cette configuration vise à construire et exécuter des agents autonomes de longue durée en local, offrant ainsi un contrôle accru sur la confidentialité, les permissions et la sécurité. Dell se positionne également comme le premier OEM à commercialiser un poste de bureau avec le NVIDIA GB300 Grace Blackwell Ultra Desktop Superchip, une machine qui offre des performances jusqu’à présent réservées à l’infrastructure de laboratoire ou de clusters. Ce mouvement illustre

AWS mène la durabilité dans la construction de centres de données en Suède avec de l'acier à faible teneur en carbone

AWS amène les agents dans la chaîne : c’est ainsi qu’il souhaite changer la relation avec ses partenaires

Amazon Web Services a choisi d’étendre l’automatisation avec des agents à l’un des secteurs les plus sensibles de ses activités : la gestion des partenaires. La société a présenté AWS Partner Central agents, une nouvelle expérience intégrée à AWS Partner Central et construite sur Amazon Bedrock AgentCore. Son objectif est de réduire les tâches administratives, d’accélérer la vente conjointe et de faciliter l’accès aux programmes de financement au sein de l’écosystème partenaire d’AWS. Ce lancement, annoncé via le blog officiel d’AWS dédié aux partenaires, positionne cette nouvelle couche d’agents comme un outil conçu pour aider les équipes commerciales et de partenariat à travailler avec plus de contexte et moins de friction. Selon Nicole Schreiber, responsable de l’expérience partenaire chez AWS,