Catégorie : Cloud

HPE accélère les réseaux pour l'ère de l’IA : ainsi veut-il diriger l’avenir du réseau autonome

HPE accélère les réseaux pour l’ère de l’IA : ainsi veut-il diriger l’avenir du réseau autonome

Hewlett Packard Enterprise (HPE) a profité de son événement HPE Discover Barcelone 2025 pour adresser un message clair au marché : les réseaux du futur seront nativement IA, autonomes et conçus pour transférer d’énormes volumes de données entre utilisateurs, centres de données et « usines d’IA ». Moins de cinq mois après l’acquisition de Juniper Networks, l’entreprise présente déjà un portefeuille commun sous les marques HPE Aruba Networking et HPE Juniper Networking, avec une feuille de route très ambitieuse en réseaux, AIOps et observabilité de bout en bout. L’objectif déclaré est ambitieux : transformer le réseau en une infrastructure critique de l’IA tout en simplifiant au maximum les opérations dans les environnements hybrides et multicloud, en s’appuyant sur une intelligence

Samsung lance la production de masse de la V-NAND V9 QLC, révolutionnant l'industrie des SSD

Samsung rectifie : réduit la HBM et mise à nouveau sur DDR5, LPDDR5 et GDDR7

Samsung a décidé de freiner dans la course à la mémoire HBM3E pour l’Intelligence Artificielle et reconsidère un domaine qu’elle connaît bien : la DRAM généraliste pour PC, ordinateurs portables et serveurs. Après plusieurs mois de transfert de ses lignes de fabrication vers la HBM afin de rivaliser directement avec SK Hynix, la société sud-coréenne amorce un changement stratégique qui consiste à augmenter sa capacité de production de DDR5, LPDDR5 et GDDR7, en plein cycle haussier des prix de la mémoire. Ce revirement a surpris l’industrie. Sur le papier, la HBM3E est le produit star du moment : c’est la mémoire qui alimente les GPU pour l’IA de NVIDIA, AMD et autres acteurs, et la demande reste très forte. Cependant,

Anthropic accélère son introduction en bourse et relance la course avec OpenAI à Wall Street

Anthropic accélère son introduction en bourse et relance la course avec OpenAI à Wall Street

Anthropic, la société spécialisée en intelligence artificielle à l’origine du modèle Claude, a franchi une étape décisive vers les marchés publics. L’entreprise a confié la préparation d’une éventuelle introduction en bourse à l’éminent cabinet Wilson Sonsini Goodrich & Rosati (WSGR), l’un des cabinets de référence dans la Silicon Valley pour les IPO technologiques, afin d’étudier les options pour une offre publique de vente (OPV) aux États-Unis. Selon des sources proches citées par la presse financière internationale, Anthropic mène également des discussions préliminaires avec plusieurs banques d’investissement pour déterminer le meilleur moment et la structure de cette opération. Bien que le conseil d’administration n’ait pas encore pris de décision définitive et qu’aucun calendrier précis ne soit fixé, cette démarche montre que

AWS et NVIDIA s'associent pour porter NVLink Fusion à Trainium4 et accélérer l'usine d'IA du futur

AWS et NVIDIA s’associent pour porter NVLink Fusion à Trainium4 et accélérer l’usine d’IA du futur

Amazon Web Services et NVIDIA ont franchi une étape stratégique dans la course à l’infrastructure d’intelligence artificielle. Lors de AWS re:Invent 2025, les deux entreprises ont annoncé l’intégration des futurs chips Trainium4 avec NVIDIA NVLink Fusion, une plateforme d’interconnexion à l’échelle de rack conçue pour relier des dizaines d’accélérateurs en un seul « cerveau » haute performance. Cette collaboration signifie que Trainium4, la prochaine génération d’accélérateurs IA d’AWS, sera conçue dès le départ pour fonctionner avec NVLink 6 et l’architecture de racks NVIDIA MGX. Il s’agit d’une alliance pluri-générationnelle entre le géant nord-américain et le leader des puces, visant à renforcer leur partenariat dans le domaine de la superinformatique. Qu’est-ce que NVLink Fusion et pourquoi est-ce crucial pour Trainium4 NVLink

SK hynix achève le développement du HBM4 et se prépare à dominer la mémoire à large bande passante à l'ère de l'IA

TSMC déclenche la course à la mémoire IA : HBM4E personnalisée, logique à 3 nm et doublement efficace énergétiquement

TSMC a profité de son récent forum Open Innovation Platform (OIP) organisé à Amsterdam pour adresser un message clair au marché : la prochaine grande bataille de l’intelligence artificielle ne se jouera pas uniquement sur les GPU, mais aussi dans la mémoire à haut débit. La société taïwanaise a dévoilé sa stratégie pour la génération HBM4/HBM4E, avec un nouveau « C-HBM4E » personnalisé combinant un base die en technologie N3P (3 nm de haute performance) et une intégration beaucoup plus poussée entre logique et DRAM. Selon les données recueillies par TrendForce et présentées par TSMC, l’objectif est ambitieux : doubler l’efficacité énergétique par rapport aux processus DRAM actuels, tout en réduisant la tension d’alimentation jusqu’à 0,75 V dans les configurations

Lai Ching-te rappelle les anciens interdits sur les usines en Chine tandis que les États-Unis reconsidèrent la vente de Nvidia à Pékin

Lai Ching-te rappelle les anciens interdits sur les usines en Chine tandis que les États-Unis reconsidèrent la vente de Nvidia à Pékin

Le président taiwanais, Lai Ching-te, a profité d’une interview avec le journaliste Andrew Ross Sorkin lors du DealBook Summit du New York Times pour adresser un message soigneusement calibré au cœur de la guerre des semi-conducteurs : les semi-conducteurs sont une ressource mondiale qui nécessite une coopération… tout en posant des limites claires face à la Chine lorsque des risques stratégiques apparaissent. Ses propos interviennent à un moment où Washington débat de la possibilité de lever certaines restrictions empêchant Nvidia de vendre ses puces d’intelligence artificielle les plus avancées au marché chinois, un point de friction majeur dans la compétition technologique entre ces deux grandes puissances. Les semi-conducteurs comme “écosystème mondial” Dans cette interview, Lai a évité de se prononcer

HPE accélère les réseaux pour l'ère de l’IA : ainsi veut-il diriger l’avenir du réseau autonome

HPE accélère les réseaux pour l’ère de l’IA : ainsi veut-il diriger l’avenir du réseau autonome

Hewlett Packard Enterprise (HPE) a profité de son événement HPE Discover Barcelone 2025 pour adresser un message clair au marché : les réseaux du futur seront nativement IA, autonomes et conçus pour transférer d’énormes volumes de données entre utilisateurs, centres de données et « usines d’IA ». Moins de cinq mois après l’acquisition de Juniper Networks, l’entreprise présente déjà un portefeuille commun sous les marques HPE Aruba Networking et HPE Juniper Networking, avec une feuille de route très ambitieuse en réseaux, AIOps et observabilité de bout en bout. L’objectif déclaré est ambitieux : transformer le réseau en une infrastructure critique de l’IA tout en simplifiant au maximum les opérations dans les environnements hybrides et multicloud, en s’appuyant sur une intelligence

Samsung lance la production de masse de la V-NAND V9 QLC, révolutionnant l'industrie des SSD

Samsung rectifie : réduit la HBM et mise à nouveau sur DDR5, LPDDR5 et GDDR7

Samsung a décidé de freiner dans la course à la mémoire HBM3E pour l’Intelligence Artificielle et reconsidère un domaine qu’elle connaît bien : la DRAM généraliste pour PC, ordinateurs portables et serveurs. Après plusieurs mois de transfert de ses lignes de fabrication vers la HBM afin de rivaliser directement avec SK Hynix, la société sud-coréenne amorce un changement stratégique qui consiste à augmenter sa capacité de production de DDR5, LPDDR5 et GDDR7, en plein cycle haussier des prix de la mémoire. Ce revirement a surpris l’industrie. Sur le papier, la HBM3E est le produit star du moment : c’est la mémoire qui alimente les GPU pour l’IA de NVIDIA, AMD et autres acteurs, et la demande reste très forte. Cependant,

Anthropic accélère son introduction en bourse et relance la course avec OpenAI à Wall Street

Anthropic accélère son introduction en bourse et relance la course avec OpenAI à Wall Street

Anthropic, la société spécialisée en intelligence artificielle à l’origine du modèle Claude, a franchi une étape décisive vers les marchés publics. L’entreprise a confié la préparation d’une éventuelle introduction en bourse à l’éminent cabinet Wilson Sonsini Goodrich & Rosati (WSGR), l’un des cabinets de référence dans la Silicon Valley pour les IPO technologiques, afin d’étudier les options pour une offre publique de vente (OPV) aux États-Unis. Selon des sources proches citées par la presse financière internationale, Anthropic mène également des discussions préliminaires avec plusieurs banques d’investissement pour déterminer le meilleur moment et la structure de cette opération. Bien que le conseil d’administration n’ait pas encore pris de décision définitive et qu’aucun calendrier précis ne soit fixé, cette démarche montre que

AWS et NVIDIA s'associent pour porter NVLink Fusion à Trainium4 et accélérer l'usine d'IA du futur

AWS et NVIDIA s’associent pour porter NVLink Fusion à Trainium4 et accélérer l’usine d’IA du futur

Amazon Web Services et NVIDIA ont franchi une étape stratégique dans la course à l’infrastructure d’intelligence artificielle. Lors de AWS re:Invent 2025, les deux entreprises ont annoncé l’intégration des futurs chips Trainium4 avec NVIDIA NVLink Fusion, une plateforme d’interconnexion à l’échelle de rack conçue pour relier des dizaines d’accélérateurs en un seul « cerveau » haute performance. Cette collaboration signifie que Trainium4, la prochaine génération d’accélérateurs IA d’AWS, sera conçue dès le départ pour fonctionner avec NVLink 6 et l’architecture de racks NVIDIA MGX. Il s’agit d’une alliance pluri-générationnelle entre le géant nord-américain et le leader des puces, visant à renforcer leur partenariat dans le domaine de la superinformatique. Qu’est-ce que NVLink Fusion et pourquoi est-ce crucial pour Trainium4 NVLink

SK hynix achève le développement du HBM4 et se prépare à dominer la mémoire à large bande passante à l'ère de l'IA

TSMC déclenche la course à la mémoire IA : HBM4E personnalisée, logique à 3 nm et doublement efficace énergétiquement

TSMC a profité de son récent forum Open Innovation Platform (OIP) organisé à Amsterdam pour adresser un message clair au marché : la prochaine grande bataille de l’intelligence artificielle ne se jouera pas uniquement sur les GPU, mais aussi dans la mémoire à haut débit. La société taïwanaise a dévoilé sa stratégie pour la génération HBM4/HBM4E, avec un nouveau « C-HBM4E » personnalisé combinant un base die en technologie N3P (3 nm de haute performance) et une intégration beaucoup plus poussée entre logique et DRAM. Selon les données recueillies par TrendForce et présentées par TSMC, l’objectif est ambitieux : doubler l’efficacité énergétique par rapport aux processus DRAM actuels, tout en réduisant la tension d’alimentation jusqu’à 0,75 V dans les configurations

Lai Ching-te rappelle les anciens interdits sur les usines en Chine tandis que les États-Unis reconsidèrent la vente de Nvidia à Pékin

Lai Ching-te rappelle les anciens interdits sur les usines en Chine tandis que les États-Unis reconsidèrent la vente de Nvidia à Pékin

Le président taiwanais, Lai Ching-te, a profité d’une interview avec le journaliste Andrew Ross Sorkin lors du DealBook Summit du New York Times pour adresser un message soigneusement calibré au cœur de la guerre des semi-conducteurs : les semi-conducteurs sont une ressource mondiale qui nécessite une coopération… tout en posant des limites claires face à la Chine lorsque des risques stratégiques apparaissent. Ses propos interviennent à un moment où Washington débat de la possibilité de lever certaines restrictions empêchant Nvidia de vendre ses puces d’intelligence artificielle les plus avancées au marché chinois, un point de friction majeur dans la compétition technologique entre ces deux grandes puissances. Les semi-conducteurs comme “écosystème mondial” Dans cette interview, Lai a évité de se prononcer