Auteur : Info Cloud

Nouvelles attaques Rowhammer alertent plusieurs GPU NVIDIA avec GDDR6

JEDEC pousse le LPDDR6 au-delà du mobile et vise déjà l’IA dans les centres de données

La mémoire LPDDR a été associée pendant des années aux smartphones, tablettes et ultrabooks, c’est-à-dire à des appareils où la consommation d’énergie est aussi critique que la performance. Cependant, cette frontière commence à évoluer. JEDEC, l’organisme qui définit de nombreux standards clés dans l’industrie des semi-conducteurs, a dévoilé la prochaine évolution de LPDDR6, montrant clairement que cette famille de mémoire ne souhaite plus se limiter au marché mobile. Son objectif est d’étendre son usage à des domaines tels que les centres de données, l’informatique accélérée et même Processing-in-Memory pour l’inférence. Ce le pré-annoncé n’est pas une sortie commerciale immédiate de nouveaux modules, mais plutôt une feuille de route prévisionnelle que JEDEC souhaite intégrer à la prochaine révision du standard JESD209-6

Edge, Windows et le risque de dépendre toujours des mêmes navigateurs

Edge, Windows et le risque de dépendre toujours des mêmes navigateurs

Microsoft a encore fait un pas malheureux avec une de ces petites décisions qui, à première vue anodines, en disent long sur sa conception de la relation avec ses utilisateurs. Après la mise à jour de sécurité d’avril pour Windows 11, certains ordinateurs redémarrent automatiquement Microsoft Edge afin de présenter un aperçu des nouveautés du système supposées. Le problème ne réside pas uniquement dans le lancement automatique du navigateur sans consentement, mais aussi dans le contexte : cela intervient après une mise à jour mensuelle, intégrée au système d’exploitation, dans une expérience conçue pour encourager l’utilisateur à continuer sa navigation jusqu’à fin de « Commencer à naviguer ». Ce qui aurait pu être simplement annoncé par une note discrète ou

TurboTax : Google met en garde contre la mémoire qui entrave les grands modèles

TurboQuant n’affichera pas de problème de mémoire : SK hynix pense que l’IA consommera encore plus

Lors de la présentation de TurboQuant par Google en mars, une part du secteur a interprété cette annonce comme une potentialité pour atténuer la pression exercée sur la mémoire dans les grands modèles. Cette lecture n’était pas dénuée de fondement : la société elle-même expliquait que sa technique permettait de compresser le KV cache, de réduire son empreinte mémoire et d’accélérer certains traitements liés à l’IA sans compromettre la qualité des résultats. Toutefois, améliorer l’efficacité par requête ne revient pas à résoudre le déséquilibre industriel actuel du marché de la mémoire. En réalité, SK hynix adopte une position diamétralement opposée. Lors de la publication de ses résultats du premier trimestre 2026, la société a affirmé que l’expansion des technologies de

SK hynix achève le développement du HBM4 et se prépare à dominer la mémoire à large bande passante à l'ère de l'IA

SK hynix vise un autre trimestre record avec la mémoire dopée par l’IA

La mémoire retrouve une place centrale dans l’industrie des semi-conducteurs, et SK hynix est, à l’heure actuelle, l’un des principaux indicateurs de ce cycle. Après avoir clôturé un premier trimestre historique, le fabricant sud-coréen envisage un deuxième trimestre qui pourrait être encore meilleur si deux facteurs continuent à jouer en sa faveur : la hausse des prix du DRAM et du NAND, ainsi que l’accroissement de la contribution des produits à plus haute valeur, liés à l’infrastructure de l’Intelligence Artificielle. Il ne s’agit pas encore d’un résultat confirmé, mais d’une prévision appuyée tant par l’évolution du marché que par les orientations stratégiques de l’entreprise. Néanmoins, le contexte est suffisamment solide pour que certains médias spécialisés en Corée évoquent déjà une

Google lance les TPU 8t et 8i pour accélérer l'ère des agents d'IA

Google lance les TPU 8t et 8i pour accélérer l’ère des agents d’IA

Google a présenté la huitième génération de ses Tensor Processing Units (TPU) et, pour la première fois, a clairement différencié sa stratégie en deux puces distinctes : TPU 8t, destiné à l’entraînement de modèles, et TPU 8i, conçu pour l’inférence à faible latence. La société les positionne comme sa réponse à une nouvelle étape de l’Intelligence Artificielle, marquée par des agents capables non seulement de répondre à des questions, mais aussi de raisonner, d’enchaîner des étapes, d’apprendre de leurs actions et d’exécuter des flux complexes en temps réel. Le message de Google est clair : l’IA agentique ne s’intègre plus efficacement dans une infrastructure générique. C’est pourquoi ils ont opté pour deux architectures « purpose-built », c’est-à-dire spécialement conçues dès

Carrier mène le débat sur l'intelligence artificielle et le refroidissement efficace des centres de données à Cannes

Shenzhen active un cluster de IA de 14.000P avec une technologie chinoise de bout en bout

Shenzhen a lancé un nouveau cluster de calcul dédié à l’Intelligence Artificielle qui, selon les informations diffusées par le gouvernement local et par des médias spécialisés, atteint désormais une capacité totale de 14 000 PFLOPS après l’ajout d’une nouvelle phase de 11 000 PFLOPS à un déploiement antérieur de 3 000 PFLOPS. L’enjeu ne réside pas uniquement dans cette donnée, mais surtout dans l’approche adoptée : il s’agit du premier cluster chinois de niveau “10 000 cartes” construit avec une infrastructure technologique entièrement domestique, englobant accélérateurs, réseau, stockage, logiciel d’orchestration et gestion du système, de bout en bout. La mise en service officielle de cette deuxième phase a eu lieu le 26 mars 2026, selon la municipalité de Shenzhen. Elle

Nouvelles attaques Rowhammer alertent plusieurs GPU NVIDIA avec GDDR6

JEDEC pousse le LPDDR6 au-delà du mobile et vise déjà l’IA dans les centres de données

La mémoire LPDDR a été associée pendant des années aux smartphones, tablettes et ultrabooks, c’est-à-dire à des appareils où la consommation d’énergie est aussi critique que la performance. Cependant, cette frontière commence à évoluer. JEDEC, l’organisme qui définit de nombreux standards clés dans l’industrie des semi-conducteurs, a dévoilé la prochaine évolution de LPDDR6, montrant clairement que cette famille de mémoire ne souhaite plus se limiter au marché mobile. Son objectif est d’étendre son usage à des domaines tels que les centres de données, l’informatique accélérée et même Processing-in-Memory pour l’inférence. Ce le pré-annoncé n’est pas une sortie commerciale immédiate de nouveaux modules, mais plutôt une feuille de route prévisionnelle que JEDEC souhaite intégrer à la prochaine révision du standard JESD209-6

Edge, Windows et le risque de dépendre toujours des mêmes navigateurs

Edge, Windows et le risque de dépendre toujours des mêmes navigateurs

Microsoft a encore fait un pas malheureux avec une de ces petites décisions qui, à première vue anodines, en disent long sur sa conception de la relation avec ses utilisateurs. Après la mise à jour de sécurité d’avril pour Windows 11, certains ordinateurs redémarrent automatiquement Microsoft Edge afin de présenter un aperçu des nouveautés du système supposées. Le problème ne réside pas uniquement dans le lancement automatique du navigateur sans consentement, mais aussi dans le contexte : cela intervient après une mise à jour mensuelle, intégrée au système d’exploitation, dans une expérience conçue pour encourager l’utilisateur à continuer sa navigation jusqu’à fin de « Commencer à naviguer ». Ce qui aurait pu être simplement annoncé par une note discrète ou

TurboTax : Google met en garde contre la mémoire qui entrave les grands modèles

TurboQuant n’affichera pas de problème de mémoire : SK hynix pense que l’IA consommera encore plus

Lors de la présentation de TurboQuant par Google en mars, une part du secteur a interprété cette annonce comme une potentialité pour atténuer la pression exercée sur la mémoire dans les grands modèles. Cette lecture n’était pas dénuée de fondement : la société elle-même expliquait que sa technique permettait de compresser le KV cache, de réduire son empreinte mémoire et d’accélérer certains traitements liés à l’IA sans compromettre la qualité des résultats. Toutefois, améliorer l’efficacité par requête ne revient pas à résoudre le déséquilibre industriel actuel du marché de la mémoire. En réalité, SK hynix adopte une position diamétralement opposée. Lors de la publication de ses résultats du premier trimestre 2026, la société a affirmé que l’expansion des technologies de

SK hynix achève le développement du HBM4 et se prépare à dominer la mémoire à large bande passante à l'ère de l'IA

SK hynix vise un autre trimestre record avec la mémoire dopée par l’IA

La mémoire retrouve une place centrale dans l’industrie des semi-conducteurs, et SK hynix est, à l’heure actuelle, l’un des principaux indicateurs de ce cycle. Après avoir clôturé un premier trimestre historique, le fabricant sud-coréen envisage un deuxième trimestre qui pourrait être encore meilleur si deux facteurs continuent à jouer en sa faveur : la hausse des prix du DRAM et du NAND, ainsi que l’accroissement de la contribution des produits à plus haute valeur, liés à l’infrastructure de l’Intelligence Artificielle. Il ne s’agit pas encore d’un résultat confirmé, mais d’une prévision appuyée tant par l’évolution du marché que par les orientations stratégiques de l’entreprise. Néanmoins, le contexte est suffisamment solide pour que certains médias spécialisés en Corée évoquent déjà une

Google lance les TPU 8t et 8i pour accélérer l'ère des agents d'IA

Google lance les TPU 8t et 8i pour accélérer l’ère des agents d’IA

Google a présenté la huitième génération de ses Tensor Processing Units (TPU) et, pour la première fois, a clairement différencié sa stratégie en deux puces distinctes : TPU 8t, destiné à l’entraînement de modèles, et TPU 8i, conçu pour l’inférence à faible latence. La société les positionne comme sa réponse à une nouvelle étape de l’Intelligence Artificielle, marquée par des agents capables non seulement de répondre à des questions, mais aussi de raisonner, d’enchaîner des étapes, d’apprendre de leurs actions et d’exécuter des flux complexes en temps réel. Le message de Google est clair : l’IA agentique ne s’intègre plus efficacement dans une infrastructure générique. C’est pourquoi ils ont opté pour deux architectures « purpose-built », c’est-à-dire spécialement conçues dès

Carrier mène le débat sur l'intelligence artificielle et le refroidissement efficace des centres de données à Cannes

Shenzhen active un cluster de IA de 14.000P avec une technologie chinoise de bout en bout

Shenzhen a lancé un nouveau cluster de calcul dédié à l’Intelligence Artificielle qui, selon les informations diffusées par le gouvernement local et par des médias spécialisés, atteint désormais une capacité totale de 14 000 PFLOPS après l’ajout d’une nouvelle phase de 11 000 PFLOPS à un déploiement antérieur de 3 000 PFLOPS. L’enjeu ne réside pas uniquement dans cette donnée, mais surtout dans l’approche adoptée : il s’agit du premier cluster chinois de niveau “10 000 cartes” construit avec une infrastructure technologique entièrement domestique, englobant accélérateurs, réseau, stockage, logiciel d’orchestration et gestion du système, de bout en bout. La mise en service officielle de cette deuxième phase a eu lieu le 26 mars 2026, selon la municipalité de Shenzhen. Elle