Auteur : Info Cloud

Rumeurs dans la chaîne d'approvisionnement : NVIDIA sollicite Intel pour 2028 sans laisser TSMC

Rumeurs dans la chaîne d’approvisionnement : NVIDIA sollicite Intel pour 2028 sans laisser TSMC

L’industrie du silicium évolue vers un terrain délicat mais de plus en plus courant : diversifier ses fournisseurs sans rompre le « partenariat » avec TSMC. Selon des informations publiées par DigiTimes et relayées par des analystes et fuites du secteur, NVIDIA explorerait une collaboration partielle avec Intel Foundry pour sa plateforme Feynman, prévue pour 2028, dans une configuration de « double frittage » qui, du moins en théorie, vise à réduire les risques politiques et de capacité sans toucher à l’essence du rendement. Le concept central de cette rumeur est précis : le die principal du GPU resterait chez TSMC, tandis qu’un die d’E/S pourrait être fabriqué par Intel utilisant 18A ou 14A (selon la maturité, la performance et

Cisco réinvente son canal pour l'ère de l'IA avec le programme 360 : plus d'incitations, plus de métriques et un « moteur de recherche » de partenaires

Cisco réinvente son canal pour l’ère de l’IA avec le programme 360 : plus d’incitations, plus de métriques et un « moteur de recherche » de partenaires

Cisco a décidé de prendre un tournant dans l’un des domaines où l’enjeu est majeur pour 2026 : l’écosystème de partenaires. La société a annoncé le lancement du Cisco 360 Partner Program, une refonte en profondeur de son programme de canal, fruit de 15 mois de collaboration étroite avec ses partenaires, avec un objectif clair : faciliter la vente et le déploiement de projets liés aux data centers IA-ready, postes de travail “futur-proof” et résilience numérique, par des intégrateurs, cabinets de conseil, fournisseurs de services gérés (MSP), développeurs et distributeurs. Ce n’est pas une démarche anodine. Sur un marché où la “production IA” est devenue la nouvelle norme — et où les clients exigent des résultats tangibles plutôt que de

SOCAMM s'affirme comme une « deuxième mémoire » pour les serveurs d'IA, et menace de tendre le marché du LPDDR

SOCAMM s’affirme comme une « deuxième mémoire » pour les serveurs d’IA, et menace de tendre le marché du LPDDR

Depuis des années, le débat autour de la mémoire dans les centres de données spécialisés en intelligence artificielle s’articule presque toujours autour des mêmes sigles : HBM. Cela semble logique : la bande passante de la High Bandwidth Memory est devenue un pilier pour entraîner et exécuter des modèles de plus en plus grands. Mais parallèlement, et presque en silence, se développe un autre front qui vise quelque chose de différent : une modularité accrue, une densité plus grande et une dépendance moindre aux conceptions « soudées » en permanence sur la carte. Voici où intervient SOCAMM (et son évolution, SOCAMM2), un format de module basé sur la mémoire LPDDR que NVIDIA a présenté dans le cadre de sa feuille

ASML bat des records de commandes en 2025… et annonce tout de même 1 700 suppressions de postes

ASML bat des records de commandes en 2025… et annonce tout de même 1 700 suppressions de postes

ASML, le fabricant néerlandais des machines de lithographie les plus déterminantes pour l’industrie des semi-conducteurs, a clôturé 2025 avec une paradoxe difficile à ignorer : des commandes supérieures aux prévisions, des bénéfices records stimulés par la demande liée à la Intelligence Artificielle (IA) et, en parallèle, un plan de réduction d’environ 1 700 emplois, soit environ 4 % de ses effectifs. Ce tableau financier explique pourquoi le marché considère ASML comme un thermomètre avancé du cycle technologique. La société a enregistré en 2025 un bénéfice net record de 9 600 millions d’euros, avec un chiffre d’affaires de 32 700 millions d’euros, dans un contexte où les grands clients — fabricants de puces et leurs acheteurs finaux — accélèrent leurs investissements

Telefónica reconvertit ses centrales : naissance d’un réseau de mini-centres de données « edge » pour le cloud et l’IA en Espagne

Telefónica reconvertit ses centrales : naissance d’un réseau de mini-centres de données « edge » pour le cloud et l’IA en Espagne

Telefónica a lancé en Espagne un réseau de mini-centres de données basé sur la reconversion d’anciennes centrales téléphoniques. L’idée est simple mais ambitieuse : réutiliser des emplacements déjà connectés au réseau, équipés d’une alimentation électrique et de fibre optique, pour déployer des capacités de calcul et de stockage à proximité du client, offrant ainsi des services cloud « premium » avec une faible latence, tout en renforçant la souveraineté des données. Selon les détails communiqués, le réseau comporte déjà une dizaine de nœuds actifs répartis dans neuf villes espagnoles, avec un plan immédiat d’ajouter sept autres emplacements d’ici juin. Au total, cette infrastructure a été dimensionnée en première phase pour environ 3 MW de puissance, avec la possibilité d’augmenter la

Robotique humanoïde et « modèles du monde » : la Chine accélère le déploiement tandis que l’Occident mise sur les normes

Robotique humanoïde et « modèles du monde » : la Chine accélère le déploiement tandis que l’Occident mise sur les normes

La course à l’Intelligence Artificielle s’étend désormais au-delà des chatbots et des modèles linguistiques. Le nouveau champ de bataille se précise dans le monde physique : des robots humanoïdes capables d’apprendre, de se déplacer et de travailler dans des environnements réels. Selon les estimations citées par des analystes du secteur, la Chine aurait concentré la majorité des installations mondiales de robots humanoïdes d’ici 2025, se positionnant avantageusement alors que l’industrie commence à fixer ses normes, plateformes et standards de facto. Ce qui retient le plus l’attention, c’est la répartition du déploiement : environ 16 000 robots humanoïdes installés dans le monde en 2025, dont près de 13 000 en Chine. En d’autres termes : le pays ne se contente pas

Rumeurs dans la chaîne d'approvisionnement : NVIDIA sollicite Intel pour 2028 sans laisser TSMC

Rumeurs dans la chaîne d’approvisionnement : NVIDIA sollicite Intel pour 2028 sans laisser TSMC

L’industrie du silicium évolue vers un terrain délicat mais de plus en plus courant : diversifier ses fournisseurs sans rompre le « partenariat » avec TSMC. Selon des informations publiées par DigiTimes et relayées par des analystes et fuites du secteur, NVIDIA explorerait une collaboration partielle avec Intel Foundry pour sa plateforme Feynman, prévue pour 2028, dans une configuration de « double frittage » qui, du moins en théorie, vise à réduire les risques politiques et de capacité sans toucher à l’essence du rendement. Le concept central de cette rumeur est précis : le die principal du GPU resterait chez TSMC, tandis qu’un die d’E/S pourrait être fabriqué par Intel utilisant 18A ou 14A (selon la maturité, la performance et

Cisco réinvente son canal pour l'ère de l'IA avec le programme 360 : plus d'incitations, plus de métriques et un « moteur de recherche » de partenaires

Cisco réinvente son canal pour l’ère de l’IA avec le programme 360 : plus d’incitations, plus de métriques et un « moteur de recherche » de partenaires

Cisco a décidé de prendre un tournant dans l’un des domaines où l’enjeu est majeur pour 2026 : l’écosystème de partenaires. La société a annoncé le lancement du Cisco 360 Partner Program, une refonte en profondeur de son programme de canal, fruit de 15 mois de collaboration étroite avec ses partenaires, avec un objectif clair : faciliter la vente et le déploiement de projets liés aux data centers IA-ready, postes de travail “futur-proof” et résilience numérique, par des intégrateurs, cabinets de conseil, fournisseurs de services gérés (MSP), développeurs et distributeurs. Ce n’est pas une démarche anodine. Sur un marché où la “production IA” est devenue la nouvelle norme — et où les clients exigent des résultats tangibles plutôt que de

SOCAMM s'affirme comme une « deuxième mémoire » pour les serveurs d'IA, et menace de tendre le marché du LPDDR

SOCAMM s’affirme comme une « deuxième mémoire » pour les serveurs d’IA, et menace de tendre le marché du LPDDR

Depuis des années, le débat autour de la mémoire dans les centres de données spécialisés en intelligence artificielle s’articule presque toujours autour des mêmes sigles : HBM. Cela semble logique : la bande passante de la High Bandwidth Memory est devenue un pilier pour entraîner et exécuter des modèles de plus en plus grands. Mais parallèlement, et presque en silence, se développe un autre front qui vise quelque chose de différent : une modularité accrue, une densité plus grande et une dépendance moindre aux conceptions « soudées » en permanence sur la carte. Voici où intervient SOCAMM (et son évolution, SOCAMM2), un format de module basé sur la mémoire LPDDR que NVIDIA a présenté dans le cadre de sa feuille

ASML bat des records de commandes en 2025… et annonce tout de même 1 700 suppressions de postes

ASML bat des records de commandes en 2025… et annonce tout de même 1 700 suppressions de postes

ASML, le fabricant néerlandais des machines de lithographie les plus déterminantes pour l’industrie des semi-conducteurs, a clôturé 2025 avec une paradoxe difficile à ignorer : des commandes supérieures aux prévisions, des bénéfices records stimulés par la demande liée à la Intelligence Artificielle (IA) et, en parallèle, un plan de réduction d’environ 1 700 emplois, soit environ 4 % de ses effectifs. Ce tableau financier explique pourquoi le marché considère ASML comme un thermomètre avancé du cycle technologique. La société a enregistré en 2025 un bénéfice net record de 9 600 millions d’euros, avec un chiffre d’affaires de 32 700 millions d’euros, dans un contexte où les grands clients — fabricants de puces et leurs acheteurs finaux — accélèrent leurs investissements

Telefónica reconvertit ses centrales : naissance d’un réseau de mini-centres de données « edge » pour le cloud et l’IA en Espagne

Telefónica reconvertit ses centrales : naissance d’un réseau de mini-centres de données « edge » pour le cloud et l’IA en Espagne

Telefónica a lancé en Espagne un réseau de mini-centres de données basé sur la reconversion d’anciennes centrales téléphoniques. L’idée est simple mais ambitieuse : réutiliser des emplacements déjà connectés au réseau, équipés d’une alimentation électrique et de fibre optique, pour déployer des capacités de calcul et de stockage à proximité du client, offrant ainsi des services cloud « premium » avec une faible latence, tout en renforçant la souveraineté des données. Selon les détails communiqués, le réseau comporte déjà une dizaine de nœuds actifs répartis dans neuf villes espagnoles, avec un plan immédiat d’ajouter sept autres emplacements d’ici juin. Au total, cette infrastructure a été dimensionnée en première phase pour environ 3 MW de puissance, avec la possibilité d’augmenter la

Robotique humanoïde et « modèles du monde » : la Chine accélère le déploiement tandis que l’Occident mise sur les normes

Robotique humanoïde et « modèles du monde » : la Chine accélère le déploiement tandis que l’Occident mise sur les normes

La course à l’Intelligence Artificielle s’étend désormais au-delà des chatbots et des modèles linguistiques. Le nouveau champ de bataille se précise dans le monde physique : des robots humanoïdes capables d’apprendre, de se déplacer et de travailler dans des environnements réels. Selon les estimations citées par des analystes du secteur, la Chine aurait concentré la majorité des installations mondiales de robots humanoïdes d’ici 2025, se positionnant avantageusement alors que l’industrie commence à fixer ses normes, plateformes et standards de facto. Ce qui retient le plus l’attention, c’est la répartition du déploiement : environ 16 000 robots humanoïdes installés dans le monde en 2025, dont près de 13 000 en Chine. En d’autres termes : le pays ne se contente pas