Catégorie : Cloud

NVIDIA redéfinit l'inférence avec Rubin CPX : moins HBM, plus d'efficacité contextuelle

NVIDIA redéfinit l’inférence avec Rubin CPX : moins HBM, plus d’efficacité contextuelle

Ces derniers jours, un argument percutant est devenu viral : NVIDIA aurait « admit » que son architecture est « cassée » parce qu’elle a présenté une puce dédiée à l’intelligence artificielle qui omet la mémoire HBM au profit de la mémoire GDDR. Cette déclaration peut faire sensation sur les réseaux sociaux, mais la réalité est plus complexe — et surtout, plus nuancée : NVIDIA réagit à une évolution fondamentale dans la manière dont l’Intelligence Artificielle est déployée en production, où la compétition ne se limite plus à l’entraînement des modèles, mais porte aussi sur leur mise en service rentable quand le contexte s’étend à des centaines de milliers ou millions de tokens. La pièce centrale de cette évolution est

DNP et Canon secouent le tableau de la lithographie : un gabarit « 1,4 nm » qui promet de réduire les coûts énergétiques… sans garantie d’adoption

DNP et Canon secouent le tableau de la lithographie : un gabarit « 1,4 nm » qui promet de réduire les coûts énergétiques… sans garantie d’adoption

La carrera hacia los nodos más avanzados está marcada desde años por un concepto clave: EUV. La litografía ultravioleta extrema se ha convertido en el cuello de botella más costoso —y energéticamente exigente— en la fabricación de chips de última generación. Por ello, cada vez que surge una alternativa mínimamente viable, el mercado presta atención. Esta semana, Dai Nippon Printing (DNP) ha presentado una innovación significativa: una plantilla para nanoimprint lithography (NIL) capaz de transferir patrones con líneas de 10 nm, lo que la compañía vincula con procesos equivalentes a la generación de 1,4 nm. DNP asegura que su objetivo es lograr fabricación en masa en 2027 y ha establecido una meta comercial: incrementar las ventas de NIL hasta 4.000

Télécommunications : prorogation jusqu'en 2026 de l'utilisation expérimentale de 2.400–2.410 MHz pour les radioamateurs en liaison avec le satellite QO-100

Télécommunications : prorogation jusqu’en 2026 de l’utilisation expérimentale de 2.400–2.410 MHz pour les radioamateurs en liaison avec le satellite QO-100

Le Secrétariat d’État aux Télécommunications et Infraestructures Numériques (SETID) a renouvelé l’autorisation temporaire et expérimentale permettant aux radioamateurs espagnols d’émettre dans la plage 2 400 à 2 410 MHz, une fenêtre très précise au sein du segment 2,4 GHz. La prolongation étend la validité jusqu’au 26 décembre 2026, assurant la continuité d’un permis qui est renouvelé de manière régulière depuis mars 2009. La Unión de Radioaficionados Españoles (URE) avait demandé à le voir maintenu une année supplémentaire. Cette décision, loin d’être un simple acte administratif, revêt une importance pratique pour une communauté qui exploite cette portion du spectre comme un véritable terrain d’expérimentation pour les communications en micro-ondes, notamment en satellite. En un contexte où le discours public tourne principalement

Meta achète Manus et confirme la tendance de 2025 : les géants « dévorent » l'avenir de l'intelligence artificielle

Meta achète Manus et confirme la tendance de 2025 : les géants « dévorent » l’avenir de l’intelligence artificielle

L’annonce selon laquelle Manus rejoint Meta semble, à première vue, s’inscrire dans le tumulte habituel de l’intelligence artificielle. Toutefois, avec du recul, elle révèle un schéma de plus en plus clair : les grands acteurs n’achètent pas “seulement” de la technologie, ils acquièrent des positions stratégiques. C’est-à-dire : talent, propriété intellectuelle, accès aux données, canaux de distribution et surtout, la capacité d’établir la norme de facto dans la prochaine couche logicielle. Dans le cas de Manus, cette lecture est limpide : Meta renforce son engagement envers les agents à usage général (capables de réaliser des tâches complexes de bout en bout) et s’assure une équipe ainsi qu’une plateforme qui, selon les rapports, montraient déjà des signes significatifs de traction sur

QEMU 10.2 renforce la virtualisation moderne : plus de performance avec io_uring, mise à jour en direct et un message clair sur la sécurité

QEMU 10.2 renforce la virtualisation moderne : plus de performance avec io_uring, mise à jour en direct et un message clair sur la sécurité

QEMU, l’un des piliers silencieux de l’écosystème de virtualisation et d’émulation open source, a clôturé 2025 avec une mise à jour significative. La version 10.2.0, annoncée officiellement le 24 décembre (avec le tarball publié sur la page de téléchargement le 23 décembre), arrive avec un rythme de développement qui remet en perspective l’ampleur du projet : plus de 2 300 commits signés par 188 contributeurs pour une version qui impacte aussi bien les laboratoires d’architecture que les plateformes de cloud privé et les environnements d’entreprise. Dans un marché où une grande partie de la conversation tourne autour de « hyperviseurs » de marque ou de suites complètes, QEMU joue une autre partition : celle du moteur permettant à de nombreuses

SoftBank prête main-forte à Arm pour financer sa aposta sur OpenAI : l'ingénierie financière derrière le « moment IA »

SoftBank prête main-forte à Arm pour financer sa aposta sur OpenAI : l’ingénierie financière derrière le « moment IA »

SoftBank s’habitue depuis des années à orchestrer des mouvements qui fusionnent vision technologique, gros titres et une tolérance au risque rare pour une société cotée en bourse. Mais ce qui rend sa dernière grande offensive particulièrement frappante, ce n’est pas seulement l’ampleur de l’investissement dans l’Intelligence Artificielle, c’est surtout la façon dont elle est financée : Arm sert de garantie. Le 11 novembre 2025, lors de la présentation aux investisseurs de SoftBank, une diapositive a révélé beaucoup de ce qui se passe : la société a élargi une ligne de prêt avec garantie (margin loan) adossée à des actions d’Arm jusqu’à 20 milliards de dollars, avec déjà 8,5 milliards débloqués et 11,5 milliards disponibles. Cette opération a impliqué 33 établissements

NVIDIA redéfinit l'inférence avec Rubin CPX : moins HBM, plus d'efficacité contextuelle

NVIDIA redéfinit l’inférence avec Rubin CPX : moins HBM, plus d’efficacité contextuelle

Ces derniers jours, un argument percutant est devenu viral : NVIDIA aurait « admit » que son architecture est « cassée » parce qu’elle a présenté une puce dédiée à l’intelligence artificielle qui omet la mémoire HBM au profit de la mémoire GDDR. Cette déclaration peut faire sensation sur les réseaux sociaux, mais la réalité est plus complexe — et surtout, plus nuancée : NVIDIA réagit à une évolution fondamentale dans la manière dont l’Intelligence Artificielle est déployée en production, où la compétition ne se limite plus à l’entraînement des modèles, mais porte aussi sur leur mise en service rentable quand le contexte s’étend à des centaines de milliers ou millions de tokens. La pièce centrale de cette évolution est

DNP et Canon secouent le tableau de la lithographie : un gabarit « 1,4 nm » qui promet de réduire les coûts énergétiques… sans garantie d’adoption

DNP et Canon secouent le tableau de la lithographie : un gabarit « 1,4 nm » qui promet de réduire les coûts énergétiques… sans garantie d’adoption

La carrera hacia los nodos más avanzados está marcada desde años por un concepto clave: EUV. La litografía ultravioleta extrema se ha convertido en el cuello de botella más costoso —y energéticamente exigente— en la fabricación de chips de última generación. Por ello, cada vez que surge una alternativa mínimamente viable, el mercado presta atención. Esta semana, Dai Nippon Printing (DNP) ha presentado una innovación significativa: una plantilla para nanoimprint lithography (NIL) capaz de transferir patrones con líneas de 10 nm, lo que la compañía vincula con procesos equivalentes a la generación de 1,4 nm. DNP asegura que su objetivo es lograr fabricación en masa en 2027 y ha establecido una meta comercial: incrementar las ventas de NIL hasta 4.000

Télécommunications : prorogation jusqu'en 2026 de l'utilisation expérimentale de 2.400–2.410 MHz pour les radioamateurs en liaison avec le satellite QO-100

Télécommunications : prorogation jusqu’en 2026 de l’utilisation expérimentale de 2.400–2.410 MHz pour les radioamateurs en liaison avec le satellite QO-100

Le Secrétariat d’État aux Télécommunications et Infraestructures Numériques (SETID) a renouvelé l’autorisation temporaire et expérimentale permettant aux radioamateurs espagnols d’émettre dans la plage 2 400 à 2 410 MHz, une fenêtre très précise au sein du segment 2,4 GHz. La prolongation étend la validité jusqu’au 26 décembre 2026, assurant la continuité d’un permis qui est renouvelé de manière régulière depuis mars 2009. La Unión de Radioaficionados Españoles (URE) avait demandé à le voir maintenu une année supplémentaire. Cette décision, loin d’être un simple acte administratif, revêt une importance pratique pour une communauté qui exploite cette portion du spectre comme un véritable terrain d’expérimentation pour les communications en micro-ondes, notamment en satellite. En un contexte où le discours public tourne principalement

Meta achète Manus et confirme la tendance de 2025 : les géants « dévorent » l'avenir de l'intelligence artificielle

Meta achète Manus et confirme la tendance de 2025 : les géants « dévorent » l’avenir de l’intelligence artificielle

L’annonce selon laquelle Manus rejoint Meta semble, à première vue, s’inscrire dans le tumulte habituel de l’intelligence artificielle. Toutefois, avec du recul, elle révèle un schéma de plus en plus clair : les grands acteurs n’achètent pas “seulement” de la technologie, ils acquièrent des positions stratégiques. C’est-à-dire : talent, propriété intellectuelle, accès aux données, canaux de distribution et surtout, la capacité d’établir la norme de facto dans la prochaine couche logicielle. Dans le cas de Manus, cette lecture est limpide : Meta renforce son engagement envers les agents à usage général (capables de réaliser des tâches complexes de bout en bout) et s’assure une équipe ainsi qu’une plateforme qui, selon les rapports, montraient déjà des signes significatifs de traction sur

QEMU 10.2 renforce la virtualisation moderne : plus de performance avec io_uring, mise à jour en direct et un message clair sur la sécurité

QEMU 10.2 renforce la virtualisation moderne : plus de performance avec io_uring, mise à jour en direct et un message clair sur la sécurité

QEMU, l’un des piliers silencieux de l’écosystème de virtualisation et d’émulation open source, a clôturé 2025 avec une mise à jour significative. La version 10.2.0, annoncée officiellement le 24 décembre (avec le tarball publié sur la page de téléchargement le 23 décembre), arrive avec un rythme de développement qui remet en perspective l’ampleur du projet : plus de 2 300 commits signés par 188 contributeurs pour une version qui impacte aussi bien les laboratoires d’architecture que les plateformes de cloud privé et les environnements d’entreprise. Dans un marché où une grande partie de la conversation tourne autour de « hyperviseurs » de marque ou de suites complètes, QEMU joue une autre partition : celle du moteur permettant à de nombreuses

SoftBank prête main-forte à Arm pour financer sa aposta sur OpenAI : l'ingénierie financière derrière le « moment IA »

SoftBank prête main-forte à Arm pour financer sa aposta sur OpenAI : l’ingénierie financière derrière le « moment IA »

SoftBank s’habitue depuis des années à orchestrer des mouvements qui fusionnent vision technologique, gros titres et une tolérance au risque rare pour une société cotée en bourse. Mais ce qui rend sa dernière grande offensive particulièrement frappante, ce n’est pas seulement l’ampleur de l’investissement dans l’Intelligence Artificielle, c’est surtout la façon dont elle est financée : Arm sert de garantie. Le 11 novembre 2025, lors de la présentation aux investisseurs de SoftBank, une diapositive a révélé beaucoup de ce qui se passe : la société a élargi une ligne de prêt avec garantie (margin loan) adossée à des actions d’Arm jusqu’à 20 milliards de dollars, avec déjà 8,5 milliards débloqués et 11,5 milliards disponibles. Cette opération a impliqué 33 établissements