Catégorie : Cloud

Le PDG d'IBM avertit : la course aux mégacentres de données IA ne sera pas rentable avec les coûts actuels

Le PDG d’IBM avertit : la course aux mégacentres de données IA ne sera pas rentable avec les coûts actuels

L’engouement pour l’investissement dans l’intelligence artificielle envahit le monde avec des projets de mégapoles de données alimentées par des GPU, des puces spécialisées et des centaines de mégawatts de puissance électrique. Cependant, selon le PDG d’IBM, Arvind Krishna, ces investissements ne sont pas viables économiquement. Il exprime cette réalité avec une franchise peu courante dans un secteur habitué à promettre des retours quasi infinis. Lors d’une conversation dans le podcast Decoder de The Verge, Krishna prévient que la déploiement actuel d’infrastructures pour des modèles d’IA de pointe — ceux visant l’intelligence artificielle générale (AGI) — pourrait simplement devenir insoutenable d’un point de vue financier. Son calcul est simple : si l’industrie s’engage dans un effort estimé à environ 8 000 milliards

HPE accélère les réseaux pour l'ère de l’IA : ainsi veut-il diriger l’avenir du réseau autonome

HPE accélère les réseaux pour l’ère de l’IA : ainsi veut-il diriger l’avenir du réseau autonome

Hewlett Packard Enterprise (HPE) a profité de son événement HPE Discover Barcelone 2025 pour adresser un message clair au marché : les réseaux du futur seront nativement IA, autonomes et conçus pour transférer d’énormes volumes de données entre utilisateurs, centres de données et « usines d’IA ». Moins de cinq mois après l’acquisition de Juniper Networks, l’entreprise présente déjà un portefeuille commun sous les marques HPE Aruba Networking et HPE Juniper Networking, avec une feuille de route très ambitieuse en réseaux, AIOps et observabilité de bout en bout. L’objectif déclaré est ambitieux : transformer le réseau en une infrastructure critique de l’IA tout en simplifiant au maximum les opérations dans les environnements hybrides et multicloud, en s’appuyant sur une intelligence

Samsung lance la production de masse de la V-NAND V9 QLC, révolutionnant l'industrie des SSD

Samsung rectifie : réduit la HBM et mise à nouveau sur DDR5, LPDDR5 et GDDR7

Samsung a décidé de freiner dans la course à la mémoire HBM3E pour l’Intelligence Artificielle et reconsidère un domaine qu’elle connaît bien : la DRAM généraliste pour PC, ordinateurs portables et serveurs. Après plusieurs mois de transfert de ses lignes de fabrication vers la HBM afin de rivaliser directement avec SK Hynix, la société sud-coréenne amorce un changement stratégique qui consiste à augmenter sa capacité de production de DDR5, LPDDR5 et GDDR7, en plein cycle haussier des prix de la mémoire. Ce revirement a surpris l’industrie. Sur le papier, la HBM3E est le produit star du moment : c’est la mémoire qui alimente les GPU pour l’IA de NVIDIA, AMD et autres acteurs, et la demande reste très forte. Cependant,

Anthropic accélère son introduction en bourse et relance la course avec OpenAI à Wall Street

Anthropic accélère son introduction en bourse et relance la course avec OpenAI à Wall Street

Anthropic, la société spécialisée en intelligence artificielle à l’origine du modèle Claude, a franchi une étape décisive vers les marchés publics. L’entreprise a confié la préparation d’une éventuelle introduction en bourse à l’éminent cabinet Wilson Sonsini Goodrich & Rosati (WSGR), l’un des cabinets de référence dans la Silicon Valley pour les IPO technologiques, afin d’étudier les options pour une offre publique de vente (OPV) aux États-Unis. Selon des sources proches citées par la presse financière internationale, Anthropic mène également des discussions préliminaires avec plusieurs banques d’investissement pour déterminer le meilleur moment et la structure de cette opération. Bien que le conseil d’administration n’ait pas encore pris de décision définitive et qu’aucun calendrier précis ne soit fixé, cette démarche montre que

AWS et NVIDIA s'associent pour porter NVLink Fusion à Trainium4 et accélérer l'usine d'IA du futur

AWS et NVIDIA s’associent pour porter NVLink Fusion à Trainium4 et accélérer l’usine d’IA du futur

Amazon Web Services et NVIDIA ont franchi une étape stratégique dans la course à l’infrastructure d’intelligence artificielle. Lors de AWS re:Invent 2025, les deux entreprises ont annoncé l’intégration des futurs chips Trainium4 avec NVIDIA NVLink Fusion, une plateforme d’interconnexion à l’échelle de rack conçue pour relier des dizaines d’accélérateurs en un seul « cerveau » haute performance. Cette collaboration signifie que Trainium4, la prochaine génération d’accélérateurs IA d’AWS, sera conçue dès le départ pour fonctionner avec NVLink 6 et l’architecture de racks NVIDIA MGX. Il s’agit d’une alliance pluri-générationnelle entre le géant nord-américain et le leader des puces, visant à renforcer leur partenariat dans le domaine de la superinformatique. Qu’est-ce que NVLink Fusion et pourquoi est-ce crucial pour Trainium4 NVLink

SK hynix achève le développement du HBM4 et se prépare à dominer la mémoire à large bande passante à l'ère de l'IA

TSMC déclenche la course à la mémoire IA : HBM4E personnalisée, logique à 3 nm et doublement efficace énergétiquement

TSMC a profité de son récent forum Open Innovation Platform (OIP) organisé à Amsterdam pour adresser un message clair au marché : la prochaine grande bataille de l’intelligence artificielle ne se jouera pas uniquement sur les GPU, mais aussi dans la mémoire à haut débit. La société taïwanaise a dévoilé sa stratégie pour la génération HBM4/HBM4E, avec un nouveau « C-HBM4E » personnalisé combinant un base die en technologie N3P (3 nm de haute performance) et une intégration beaucoup plus poussée entre logique et DRAM. Selon les données recueillies par TrendForce et présentées par TSMC, l’objectif est ambitieux : doubler l’efficacité énergétique par rapport aux processus DRAM actuels, tout en réduisant la tension d’alimentation jusqu’à 0,75 V dans les configurations

Le PDG d'IBM avertit : la course aux mégacentres de données IA ne sera pas rentable avec les coûts actuels

Le PDG d’IBM avertit : la course aux mégacentres de données IA ne sera pas rentable avec les coûts actuels

L’engouement pour l’investissement dans l’intelligence artificielle envahit le monde avec des projets de mégapoles de données alimentées par des GPU, des puces spécialisées et des centaines de mégawatts de puissance électrique. Cependant, selon le PDG d’IBM, Arvind Krishna, ces investissements ne sont pas viables économiquement. Il exprime cette réalité avec une franchise peu courante dans un secteur habitué à promettre des retours quasi infinis. Lors d’une conversation dans le podcast Decoder de The Verge, Krishna prévient que la déploiement actuel d’infrastructures pour des modèles d’IA de pointe — ceux visant l’intelligence artificielle générale (AGI) — pourrait simplement devenir insoutenable d’un point de vue financier. Son calcul est simple : si l’industrie s’engage dans un effort estimé à environ 8 000 milliards

HPE accélère les réseaux pour l'ère de l’IA : ainsi veut-il diriger l’avenir du réseau autonome

HPE accélère les réseaux pour l’ère de l’IA : ainsi veut-il diriger l’avenir du réseau autonome

Hewlett Packard Enterprise (HPE) a profité de son événement HPE Discover Barcelone 2025 pour adresser un message clair au marché : les réseaux du futur seront nativement IA, autonomes et conçus pour transférer d’énormes volumes de données entre utilisateurs, centres de données et « usines d’IA ». Moins de cinq mois après l’acquisition de Juniper Networks, l’entreprise présente déjà un portefeuille commun sous les marques HPE Aruba Networking et HPE Juniper Networking, avec une feuille de route très ambitieuse en réseaux, AIOps et observabilité de bout en bout. L’objectif déclaré est ambitieux : transformer le réseau en une infrastructure critique de l’IA tout en simplifiant au maximum les opérations dans les environnements hybrides et multicloud, en s’appuyant sur une intelligence

Samsung lance la production de masse de la V-NAND V9 QLC, révolutionnant l'industrie des SSD

Samsung rectifie : réduit la HBM et mise à nouveau sur DDR5, LPDDR5 et GDDR7

Samsung a décidé de freiner dans la course à la mémoire HBM3E pour l’Intelligence Artificielle et reconsidère un domaine qu’elle connaît bien : la DRAM généraliste pour PC, ordinateurs portables et serveurs. Après plusieurs mois de transfert de ses lignes de fabrication vers la HBM afin de rivaliser directement avec SK Hynix, la société sud-coréenne amorce un changement stratégique qui consiste à augmenter sa capacité de production de DDR5, LPDDR5 et GDDR7, en plein cycle haussier des prix de la mémoire. Ce revirement a surpris l’industrie. Sur le papier, la HBM3E est le produit star du moment : c’est la mémoire qui alimente les GPU pour l’IA de NVIDIA, AMD et autres acteurs, et la demande reste très forte. Cependant,

Anthropic accélère son introduction en bourse et relance la course avec OpenAI à Wall Street

Anthropic accélère son introduction en bourse et relance la course avec OpenAI à Wall Street

Anthropic, la société spécialisée en intelligence artificielle à l’origine du modèle Claude, a franchi une étape décisive vers les marchés publics. L’entreprise a confié la préparation d’une éventuelle introduction en bourse à l’éminent cabinet Wilson Sonsini Goodrich & Rosati (WSGR), l’un des cabinets de référence dans la Silicon Valley pour les IPO technologiques, afin d’étudier les options pour une offre publique de vente (OPV) aux États-Unis. Selon des sources proches citées par la presse financière internationale, Anthropic mène également des discussions préliminaires avec plusieurs banques d’investissement pour déterminer le meilleur moment et la structure de cette opération. Bien que le conseil d’administration n’ait pas encore pris de décision définitive et qu’aucun calendrier précis ne soit fixé, cette démarche montre que

AWS et NVIDIA s'associent pour porter NVLink Fusion à Trainium4 et accélérer l'usine d'IA du futur

AWS et NVIDIA s’associent pour porter NVLink Fusion à Trainium4 et accélérer l’usine d’IA du futur

Amazon Web Services et NVIDIA ont franchi une étape stratégique dans la course à l’infrastructure d’intelligence artificielle. Lors de AWS re:Invent 2025, les deux entreprises ont annoncé l’intégration des futurs chips Trainium4 avec NVIDIA NVLink Fusion, une plateforme d’interconnexion à l’échelle de rack conçue pour relier des dizaines d’accélérateurs en un seul « cerveau » haute performance. Cette collaboration signifie que Trainium4, la prochaine génération d’accélérateurs IA d’AWS, sera conçue dès le départ pour fonctionner avec NVLink 6 et l’architecture de racks NVIDIA MGX. Il s’agit d’une alliance pluri-générationnelle entre le géant nord-américain et le leader des puces, visant à renforcer leur partenariat dans le domaine de la superinformatique. Qu’est-ce que NVLink Fusion et pourquoi est-ce crucial pour Trainium4 NVLink

SK hynix achève le développement du HBM4 et se prépare à dominer la mémoire à large bande passante à l'ère de l'IA

TSMC déclenche la course à la mémoire IA : HBM4E personnalisée, logique à 3 nm et doublement efficace énergétiquement

TSMC a profité de son récent forum Open Innovation Platform (OIP) organisé à Amsterdam pour adresser un message clair au marché : la prochaine grande bataille de l’intelligence artificielle ne se jouera pas uniquement sur les GPU, mais aussi dans la mémoire à haut débit. La société taïwanaise a dévoilé sa stratégie pour la génération HBM4/HBM4E, avec un nouveau « C-HBM4E » personnalisé combinant un base die en technologie N3P (3 nm de haute performance) et une intégration beaucoup plus poussée entre logique et DRAM. Selon les données recueillies par TrendForce et présentées par TSMC, l’objectif est ambitieux : doubler l’efficacité énergétique par rapport aux processus DRAM actuels, tout en réduisant la tension d’alimentation jusqu’à 0,75 V dans les configurations