Catégorie : Cloud

Samsung lance la production de masse de la V-NAND V9 QLC, révolutionnant l'industrie des SSD

Samsung rectifie : réduit la HBM et mise à nouveau sur DDR5, LPDDR5 et GDDR7

Samsung a décidé de freiner dans la course à la mémoire HBM3E pour l’Intelligence Artificielle et reconsidère un domaine qu’elle connaît bien : la DRAM généraliste pour PC, ordinateurs portables et serveurs. Après plusieurs mois de transfert de ses lignes de fabrication vers la HBM afin de rivaliser directement avec SK Hynix, la société sud-coréenne amorce un changement stratégique qui consiste à augmenter sa capacité de production de DDR5, LPDDR5 et GDDR7, en plein cycle haussier des prix de la mémoire. Ce revirement a surpris l’industrie. Sur le papier, la HBM3E est le produit star du moment : c’est la mémoire qui alimente les GPU pour l’IA de NVIDIA, AMD et autres acteurs, et la demande reste très forte. Cependant,

Anthropic accélère son introduction en bourse et relance la course avec OpenAI à Wall Street

Anthropic accélère son introduction en bourse et relance la course avec OpenAI à Wall Street

Anthropic, la société spécialisée en intelligence artificielle à l’origine du modèle Claude, a franchi une étape décisive vers les marchés publics. L’entreprise a confié la préparation d’une éventuelle introduction en bourse à l’éminent cabinet Wilson Sonsini Goodrich & Rosati (WSGR), l’un des cabinets de référence dans la Silicon Valley pour les IPO technologiques, afin d’étudier les options pour une offre publique de vente (OPV) aux États-Unis. Selon des sources proches citées par la presse financière internationale, Anthropic mène également des discussions préliminaires avec plusieurs banques d’investissement pour déterminer le meilleur moment et la structure de cette opération. Bien que le conseil d’administration n’ait pas encore pris de décision définitive et qu’aucun calendrier précis ne soit fixé, cette démarche montre que

AWS et NVIDIA s'associent pour porter NVLink Fusion à Trainium4 et accélérer l'usine d'IA du futur

AWS et NVIDIA s’associent pour porter NVLink Fusion à Trainium4 et accélérer l’usine d’IA du futur

Amazon Web Services et NVIDIA ont franchi une étape stratégique dans la course à l’infrastructure d’intelligence artificielle. Lors de AWS re:Invent 2025, les deux entreprises ont annoncé l’intégration des futurs chips Trainium4 avec NVIDIA NVLink Fusion, une plateforme d’interconnexion à l’échelle de rack conçue pour relier des dizaines d’accélérateurs en un seul « cerveau » haute performance. Cette collaboration signifie que Trainium4, la prochaine génération d’accélérateurs IA d’AWS, sera conçue dès le départ pour fonctionner avec NVLink 6 et l’architecture de racks NVIDIA MGX. Il s’agit d’une alliance pluri-générationnelle entre le géant nord-américain et le leader des puces, visant à renforcer leur partenariat dans le domaine de la superinformatique. Qu’est-ce que NVLink Fusion et pourquoi est-ce crucial pour Trainium4 NVLink

SK hynix achève le développement du HBM4 et se prépare à dominer la mémoire à large bande passante à l'ère de l'IA

TSMC déclenche la course à la mémoire IA : HBM4E personnalisée, logique à 3 nm et doublement efficace énergétiquement

TSMC a profité de son récent forum Open Innovation Platform (OIP) organisé à Amsterdam pour adresser un message clair au marché : la prochaine grande bataille de l’intelligence artificielle ne se jouera pas uniquement sur les GPU, mais aussi dans la mémoire à haut débit. La société taïwanaise a dévoilé sa stratégie pour la génération HBM4/HBM4E, avec un nouveau « C-HBM4E » personnalisé combinant un base die en technologie N3P (3 nm de haute performance) et une intégration beaucoup plus poussée entre logique et DRAM. Selon les données recueillies par TrendForce et présentées par TSMC, l’objectif est ambitieux : doubler l’efficacité énergétique par rapport aux processus DRAM actuels, tout en réduisant la tension d’alimentation jusqu’à 0,75 V dans les configurations

Lai Ching-te rappelle les anciens interdits sur les usines en Chine tandis que les États-Unis reconsidèrent la vente de Nvidia à Pékin

Lai Ching-te rappelle les anciens interdits sur les usines en Chine tandis que les États-Unis reconsidèrent la vente de Nvidia à Pékin

Le président taiwanais, Lai Ching-te, a profité d’une interview avec le journaliste Andrew Ross Sorkin lors du DealBook Summit du New York Times pour adresser un message soigneusement calibré au cœur de la guerre des semi-conducteurs : les semi-conducteurs sont une ressource mondiale qui nécessite une coopération… tout en posant des limites claires face à la Chine lorsque des risques stratégiques apparaissent. Ses propos interviennent à un moment où Washington débat de la possibilité de lever certaines restrictions empêchant Nvidia de vendre ses puces d’intelligence artificielle les plus avancées au marché chinois, un point de friction majeur dans la compétition technologique entre ces deux grandes puissances. Les semi-conducteurs comme “écosystème mondial” Dans cette interview, Lai a évité de se prononcer

La Chine durcit le contrôle sur les batteries externes et oblige l'industrie à repenser ses power banks

La Chine durcit le contrôle sur les batteries externes et oblige l’industrie à repenser ses power banks

La Chine se prépare à mettre en œuvre une nouvelle réglementation concernant la sécurité des batteries externes utilisées lors des vols. Les autorités chinoises estiment que la certification 3C — le label obligatoire de conformité pour les produits électroniques — ne suffit plus à garantir qu’une batterie externe est sûre à bord d’un avion. L’objectif : réduire au maximum les risques d’incendies, d’explosions, de fissures ou de fuites en plein vol, même si cela entraîne une augmentation du coût du produit et une pression accrue sur l’industrie. Cette initiative s’inscrit dans un contexte mondial d’inquiétude croissante face aux incidents liés aux batteries au lithium. Ces dernières années, plusieurs vols ont dû effectuer des atterrissages d’urgence suite à des incendies dans

Samsung lance la production de masse de la V-NAND V9 QLC, révolutionnant l'industrie des SSD

Samsung rectifie : réduit la HBM et mise à nouveau sur DDR5, LPDDR5 et GDDR7

Samsung a décidé de freiner dans la course à la mémoire HBM3E pour l’Intelligence Artificielle et reconsidère un domaine qu’elle connaît bien : la DRAM généraliste pour PC, ordinateurs portables et serveurs. Après plusieurs mois de transfert de ses lignes de fabrication vers la HBM afin de rivaliser directement avec SK Hynix, la société sud-coréenne amorce un changement stratégique qui consiste à augmenter sa capacité de production de DDR5, LPDDR5 et GDDR7, en plein cycle haussier des prix de la mémoire. Ce revirement a surpris l’industrie. Sur le papier, la HBM3E est le produit star du moment : c’est la mémoire qui alimente les GPU pour l’IA de NVIDIA, AMD et autres acteurs, et la demande reste très forte. Cependant,

Anthropic accélère son introduction en bourse et relance la course avec OpenAI à Wall Street

Anthropic accélère son introduction en bourse et relance la course avec OpenAI à Wall Street

Anthropic, la société spécialisée en intelligence artificielle à l’origine du modèle Claude, a franchi une étape décisive vers les marchés publics. L’entreprise a confié la préparation d’une éventuelle introduction en bourse à l’éminent cabinet Wilson Sonsini Goodrich & Rosati (WSGR), l’un des cabinets de référence dans la Silicon Valley pour les IPO technologiques, afin d’étudier les options pour une offre publique de vente (OPV) aux États-Unis. Selon des sources proches citées par la presse financière internationale, Anthropic mène également des discussions préliminaires avec plusieurs banques d’investissement pour déterminer le meilleur moment et la structure de cette opération. Bien que le conseil d’administration n’ait pas encore pris de décision définitive et qu’aucun calendrier précis ne soit fixé, cette démarche montre que

AWS et NVIDIA s'associent pour porter NVLink Fusion à Trainium4 et accélérer l'usine d'IA du futur

AWS et NVIDIA s’associent pour porter NVLink Fusion à Trainium4 et accélérer l’usine d’IA du futur

Amazon Web Services et NVIDIA ont franchi une étape stratégique dans la course à l’infrastructure d’intelligence artificielle. Lors de AWS re:Invent 2025, les deux entreprises ont annoncé l’intégration des futurs chips Trainium4 avec NVIDIA NVLink Fusion, une plateforme d’interconnexion à l’échelle de rack conçue pour relier des dizaines d’accélérateurs en un seul « cerveau » haute performance. Cette collaboration signifie que Trainium4, la prochaine génération d’accélérateurs IA d’AWS, sera conçue dès le départ pour fonctionner avec NVLink 6 et l’architecture de racks NVIDIA MGX. Il s’agit d’une alliance pluri-générationnelle entre le géant nord-américain et le leader des puces, visant à renforcer leur partenariat dans le domaine de la superinformatique. Qu’est-ce que NVLink Fusion et pourquoi est-ce crucial pour Trainium4 NVLink

SK hynix achève le développement du HBM4 et se prépare à dominer la mémoire à large bande passante à l'ère de l'IA

TSMC déclenche la course à la mémoire IA : HBM4E personnalisée, logique à 3 nm et doublement efficace énergétiquement

TSMC a profité de son récent forum Open Innovation Platform (OIP) organisé à Amsterdam pour adresser un message clair au marché : la prochaine grande bataille de l’intelligence artificielle ne se jouera pas uniquement sur les GPU, mais aussi dans la mémoire à haut débit. La société taïwanaise a dévoilé sa stratégie pour la génération HBM4/HBM4E, avec un nouveau « C-HBM4E » personnalisé combinant un base die en technologie N3P (3 nm de haute performance) et une intégration beaucoup plus poussée entre logique et DRAM. Selon les données recueillies par TrendForce et présentées par TSMC, l’objectif est ambitieux : doubler l’efficacité énergétique par rapport aux processus DRAM actuels, tout en réduisant la tension d’alimentation jusqu’à 0,75 V dans les configurations

Lai Ching-te rappelle les anciens interdits sur les usines en Chine tandis que les États-Unis reconsidèrent la vente de Nvidia à Pékin

Lai Ching-te rappelle les anciens interdits sur les usines en Chine tandis que les États-Unis reconsidèrent la vente de Nvidia à Pékin

Le président taiwanais, Lai Ching-te, a profité d’une interview avec le journaliste Andrew Ross Sorkin lors du DealBook Summit du New York Times pour adresser un message soigneusement calibré au cœur de la guerre des semi-conducteurs : les semi-conducteurs sont une ressource mondiale qui nécessite une coopération… tout en posant des limites claires face à la Chine lorsque des risques stratégiques apparaissent. Ses propos interviennent à un moment où Washington débat de la possibilité de lever certaines restrictions empêchant Nvidia de vendre ses puces d’intelligence artificielle les plus avancées au marché chinois, un point de friction majeur dans la compétition technologique entre ces deux grandes puissances. Les semi-conducteurs comme “écosystème mondial” Dans cette interview, Lai a évité de se prononcer

La Chine durcit le contrôle sur les batteries externes et oblige l'industrie à repenser ses power banks

La Chine durcit le contrôle sur les batteries externes et oblige l’industrie à repenser ses power banks

La Chine se prépare à mettre en œuvre une nouvelle réglementation concernant la sécurité des batteries externes utilisées lors des vols. Les autorités chinoises estiment que la certification 3C — le label obligatoire de conformité pour les produits électroniques — ne suffit plus à garantir qu’une batterie externe est sûre à bord d’un avion. L’objectif : réduire au maximum les risques d’incendies, d’explosions, de fissures ou de fuites en plein vol, même si cela entraîne une augmentation du coût du produit et une pression accrue sur l’industrie. Cette initiative s’inscrit dans un contexte mondial d’inquiétude croissante face aux incidents liés aux batteries au lithium. Ces dernières années, plusieurs vols ont dû effectuer des atterrissages d’urgence suite à des incendies dans