Catégorie : Cloud

La RAM devient plus chère à cause de la fièvre de l'IA : pourquoi 2026 menace de changer les prix des ordinateurs portables, PC et serveurs

La mémoire s’emballe et change les règles : les « Big 3 » favorisent les contrats express et les prix a posteriori

Le marché de la mémoire traverse une période marquante, où l’industrie cesse de considérer les puces comme de simples pièces interchangeables, pour les traiter comme une ressource stratégique. Face à une escalade des prix, les trois principaux fabricants —Samsung Electronics, SK hynix et Micron— transforment leur façon de conclure leurs contrats d’approvisionnement en DRAM et NAND, introduisant un changement qui aurait été impensable il y a peu : des accords plus courts, des renegociations plus fréquentes et un nouveau modèle de “prix à posteriori” qui ajuste le coût final en fonction de l’évolution du marché. Une telle transformation concerne le cœur même du business. Historiquement, ces contrats reposaient sur une logique relativement stable : un prix de référence était fixé

Claude Opus 4.6 relève le défi : plus « agence », 1 000 000 de tokens et des outils pour un travail réel

Claude Opus 4.6 relève le défi : plus « agence », 1 000 000 de tokens et des outils pour un travail réel

Anthropic redéfinit sa stratégie dans la course aux modèles de langage avec le lancement de Claude Opus 4.6. Cette mise à jour cible trois axes majeurs : la programmation, les tâches longues et stratégiques et le travail professionnel (de l’analyse à la gestion de documents et feuilles de calcul). Dans un marché où la différence ne se limite plus à « répondre correctement », l’entreprise cherche à s’imposer là où cela fait mal : lorsque le modèle doit planifier, garder le contexte sur la durée et exécuter des processus complexes en évitant l’effondrement. L’annonce vient avec une promesse ambitieuse : Opus 4.6 pense « mieux » par défaut — avec plus de soin dans les étapes critiques, moins d’entraves dans l’ordinaire —

Intel et SoftBank s'associent pour créer une « nouvelle HBM » : telle est la mise sur Z-Angle Memory (ZAM)

Intel et SoftBank s’associent pour créer une « nouvelle HBM » : telle est la mise sur Z-Angle Memory (ZAM)

La compétition pour l’Intelligence Artificielle ne se décide pas uniquement avec des GPU. Le nouveau goulet d’étranglement — silencieux, coûteux et de plus en plus déterminant — réside dans la mémoire : sa capacité à déplacer des données en une seconde, sa proximité avec le processeur, et l’énergie nécessaire pour maintenir ce flux constant. En plein 2026, avec l’expansion des centres de données à un rythme qui met à rude épreuve le réseau électrique et les chaînes d’approvisionnement, l’attention se tourne vers un composant longtemps considéré comme « standard » : la DRAM. Le constat est clair. Des entreprises comme TrendForce ont fortement revu à la hausse leurs prévisions d’augmentations de prix pour la mémoire conventionnelle, dans un marché tendu

Samsung accélère sa méga-usine de puces au Texas avec une autorisation clé avant la mise en service

Samsung accélère sa méga-usine de puces au Texas avec une autorisation clé avant la mise en service

Samsung Electronics a franchi une étape importante dans la mise en service de sa mégafabrication de semi-conducteurs à Taylor (Texas), après avoir obtenu une approbation temporaire d’occupation pour une partie du bâtiment principal. Ce permis — connu sous le nom de Tempory Certificate of Occupancy (TCO) — permet d’autoriser certaines zones avant la finalisation complète du complexe, ce qui est perçu dans le secteur comme un signe que le projet entre dans une phase plus “industrielle” que purement constructive : débuter la préparation pour les tests, l’installation d’équipements et, in fine, la montée en régime de la production. Selon les informations disponibles, cette autorisation temporaire couvre environ 8 175 m² (soit 88 000 pieds carrés) au sein de la première

La Chine accélère sa course aux puces mémoire : CXMT et YMTC étendent leurs usines en pleine pénurie mondiale

La Chine accélère sa course aux puces mémoire : CXMT et YMTC étendent leurs usines en pleine pénurie mondiale

La mémoire — ce composant peu glamour qui détermine combien d’onglets de navigateur peuvent être ouverts sans que l’ordinateur ne râle — est devenue l’un des goulets d’étranglement les plus sensibles de l’économie numérique. Et ce n’est pas un hasard. L’explosion de l’Intelligence Artificielle modifie la hiérarchie des priorités des grands fabricants : là où avant dominaient les puces « standard » pour mobiles, ordinateurs portables ou serveurs, c’est désormais une pièce très spécifique et bien plus rentable qui prend le dessus : la mémoire HBM (High Bandwidth Memory), conçue pour alimenter les accélérateurs d’IA avec un flux massif de données. Ce changement a un effet secondaire inconfortable : une capacité moindre pour la mémoire conventionnelle (comme la DDR5 ou

Musk agite la course de l'IA avec une idée de science-fiction : des centres de données en orbite... et un nouveau goulet d'étranglement

Musk agite la course de l’IA avec une idée de science-fiction : des centres de données en orbite… et un nouveau goulet d’étranglement

Elon Musk repousse une fois de plus une proposition qui semble tout droit sortie d’un roman : déplacer une partie de l’infrastructure d’intelligence artificielle vers l’espace. Non pas en tant que métaphore, mais comme un plan qui, selon ses propos, deviendrait « économiquement viable » en quelques années. La raison qu’il avance n’est pas technologique mais électrique : l’expansion actuelle de l’IA serait confrontée à une limite très Terre-à-terre — la disponibilité d’énergie et la capacité réelle des réseaux à alimenter de nouveaux centres de données. Cette idée a gagné en crédibilité ces derniers jours par deux voies. D’une part, Musk a affirmé lors d’une longue interview que le « facteur limitant » de l’industrie évolue : d’abord ce sera

La RAM devient plus chère à cause de la fièvre de l'IA : pourquoi 2026 menace de changer les prix des ordinateurs portables, PC et serveurs

La mémoire s’emballe et change les règles : les « Big 3 » favorisent les contrats express et les prix a posteriori

Le marché de la mémoire traverse une période marquante, où l’industrie cesse de considérer les puces comme de simples pièces interchangeables, pour les traiter comme une ressource stratégique. Face à une escalade des prix, les trois principaux fabricants —Samsung Electronics, SK hynix et Micron— transforment leur façon de conclure leurs contrats d’approvisionnement en DRAM et NAND, introduisant un changement qui aurait été impensable il y a peu : des accords plus courts, des renegociations plus fréquentes et un nouveau modèle de “prix à posteriori” qui ajuste le coût final en fonction de l’évolution du marché. Une telle transformation concerne le cœur même du business. Historiquement, ces contrats reposaient sur une logique relativement stable : un prix de référence était fixé

Claude Opus 4.6 relève le défi : plus « agence », 1 000 000 de tokens et des outils pour un travail réel

Claude Opus 4.6 relève le défi : plus « agence », 1 000 000 de tokens et des outils pour un travail réel

Anthropic redéfinit sa stratégie dans la course aux modèles de langage avec le lancement de Claude Opus 4.6. Cette mise à jour cible trois axes majeurs : la programmation, les tâches longues et stratégiques et le travail professionnel (de l’analyse à la gestion de documents et feuilles de calcul). Dans un marché où la différence ne se limite plus à « répondre correctement », l’entreprise cherche à s’imposer là où cela fait mal : lorsque le modèle doit planifier, garder le contexte sur la durée et exécuter des processus complexes en évitant l’effondrement. L’annonce vient avec une promesse ambitieuse : Opus 4.6 pense « mieux » par défaut — avec plus de soin dans les étapes critiques, moins d’entraves dans l’ordinaire —

Intel et SoftBank s'associent pour créer une « nouvelle HBM » : telle est la mise sur Z-Angle Memory (ZAM)

Intel et SoftBank s’associent pour créer une « nouvelle HBM » : telle est la mise sur Z-Angle Memory (ZAM)

La compétition pour l’Intelligence Artificielle ne se décide pas uniquement avec des GPU. Le nouveau goulet d’étranglement — silencieux, coûteux et de plus en plus déterminant — réside dans la mémoire : sa capacité à déplacer des données en une seconde, sa proximité avec le processeur, et l’énergie nécessaire pour maintenir ce flux constant. En plein 2026, avec l’expansion des centres de données à un rythme qui met à rude épreuve le réseau électrique et les chaînes d’approvisionnement, l’attention se tourne vers un composant longtemps considéré comme « standard » : la DRAM. Le constat est clair. Des entreprises comme TrendForce ont fortement revu à la hausse leurs prévisions d’augmentations de prix pour la mémoire conventionnelle, dans un marché tendu

Samsung accélère sa méga-usine de puces au Texas avec une autorisation clé avant la mise en service

Samsung accélère sa méga-usine de puces au Texas avec une autorisation clé avant la mise en service

Samsung Electronics a franchi une étape importante dans la mise en service de sa mégafabrication de semi-conducteurs à Taylor (Texas), après avoir obtenu une approbation temporaire d’occupation pour une partie du bâtiment principal. Ce permis — connu sous le nom de Tempory Certificate of Occupancy (TCO) — permet d’autoriser certaines zones avant la finalisation complète du complexe, ce qui est perçu dans le secteur comme un signe que le projet entre dans une phase plus “industrielle” que purement constructive : débuter la préparation pour les tests, l’installation d’équipements et, in fine, la montée en régime de la production. Selon les informations disponibles, cette autorisation temporaire couvre environ 8 175 m² (soit 88 000 pieds carrés) au sein de la première

La Chine accélère sa course aux puces mémoire : CXMT et YMTC étendent leurs usines en pleine pénurie mondiale

La Chine accélère sa course aux puces mémoire : CXMT et YMTC étendent leurs usines en pleine pénurie mondiale

La mémoire — ce composant peu glamour qui détermine combien d’onglets de navigateur peuvent être ouverts sans que l’ordinateur ne râle — est devenue l’un des goulets d’étranglement les plus sensibles de l’économie numérique. Et ce n’est pas un hasard. L’explosion de l’Intelligence Artificielle modifie la hiérarchie des priorités des grands fabricants : là où avant dominaient les puces « standard » pour mobiles, ordinateurs portables ou serveurs, c’est désormais une pièce très spécifique et bien plus rentable qui prend le dessus : la mémoire HBM (High Bandwidth Memory), conçue pour alimenter les accélérateurs d’IA avec un flux massif de données. Ce changement a un effet secondaire inconfortable : une capacité moindre pour la mémoire conventionnelle (comme la DDR5 ou

Musk agite la course de l'IA avec une idée de science-fiction : des centres de données en orbite... et un nouveau goulet d'étranglement

Musk agite la course de l’IA avec une idée de science-fiction : des centres de données en orbite… et un nouveau goulet d’étranglement

Elon Musk repousse une fois de plus une proposition qui semble tout droit sortie d’un roman : déplacer une partie de l’infrastructure d’intelligence artificielle vers l’espace. Non pas en tant que métaphore, mais comme un plan qui, selon ses propos, deviendrait « économiquement viable » en quelques années. La raison qu’il avance n’est pas technologique mais électrique : l’expansion actuelle de l’IA serait confrontée à une limite très Terre-à-terre — la disponibilité d’énergie et la capacité réelle des réseaux à alimenter de nouveaux centres de données. Cette idée a gagné en crédibilité ces derniers jours par deux voies. D’une part, Musk a affirmé lors d’une longue interview que le « facteur limitant » de l’industrie évolue : d’abord ce sera