Étiquette :

CoreWeave Blackwell : salle serveurs GPU NVIDIA GB200 NVL72 pour le cloud IA

CoreWeave Blackwell : le challenger du cloud IA defie AWS, Azure et GCP

CoreWeave vient de franchir un seuil qui change la donne sur le marche du cloud IA. L’operateur americain a mis en production des milliers de GPU NVIDIA Blackwell via sa plateforme rack-scale GB200 NVL72, devenant ainsi le premier fournisseur a deployer a grande echelle l’architecture la plus avancee de NVIDIA pour l’entrainement et l’inference. Avec Cohere, IBM et Mistral AI comme premiers clients confirmes, CoreWeave Blackwell n’est plus une annonce marketing mais une realite industrielle, qui bouscule frontalement le trio AWS, Microsoft Azure et Google Cloud. Cette mise en production n’est pas anecdotique. Elle materialise un basculement strategique du marche : la competition cloud IA ne se joue plus sur le catalogue GPU, mais sur la capacite a livrer des

Lumileds Sanan CFIUS : les États-Unis bloquent l’acquisition chinoise et durcissent le contrôle des puces sensibles

Le CFIUS vient de refermer une nouvelle porte au capital chinois dans l’industrie des semi-conducteurs. L’opération paraissait secondaire, presque anodine au regard des chiffres habituellement manipulés dans le secteur, mais son issue raconte une tout autre histoire : Sanan Optoelectronics et son partenaire malaisien Inari Amertron ont officiellement abandonné le 17 avril 2026 leur projet de rachat de Lumileds pour 239 millions de dollars, après que Washington a jugé la transaction porteuse de « risques irrésolubles pour la sécurité nationale ». Derrière cette décision se cache une stratégie plus large, méthodique, qui transforme chaque dossier transatlantique en test politique. Et le message adressé à Pékin comme aux capitales européennes ne laisse aucun doute : certaines briques technologiques ne changeront pas

IPv6 dépasse IPv4 sur Google pour la première fois : pourquoi la France et l’Espagne restent à la traîne

Le 28 mars 2026 restera comme une date charnière dans l’histoire d’Internet. Pour la première fois depuis la création du protocole, IPv6 a dépassé IPv4 sur les services de Google, atteignant 50,1 % du trafic mesuré par le tableau de bord public du géant californien. Un an plus tôt, le même indicateur plafonnait à 46,33 %. Ce franchissement symbolique, même s’il n’est pas encore stable au jour le jour, marque la fin d’une longue période d’hésitation et ouvre une nouvelle ère pour les architectes réseau, les opérateurs et les DSI. Pourtant, derrière cette victoire globale se cache une géographie extrêmement inégale. Pendant que l’Inde, l’Allemagne ou les États-Unis dépassent largement la barre des 50 % d’adoption, la France stagne autour

SOCAMM2 192 Go : SK hynix lance la mémoire LPDDR5X pour NVIDIA Vera Rubin

Le datacenter IA vient de franchir une nouvelle étape dans sa mutation silencieuse : celle de la mémoire système. SK hynix a officialisé le lancement de la production de masse de son module SOCAMM2 de 192 Go, une mémoire LPDDR5X basse consommation gravée selon le procédé 1CnM — la sixième génération de la technologie 10 nanomètres du fabricant sud-coréen. La cible est claire : les plateformes NVIDIA Vera Rubin, nouvelle génération d’architectures serveurs pensées pour l’entraînement et l’inférence des modèles de fondation. Ce qui ressemble, au premier regard, à une simple annonce de composant, est en réalité un signal fort envoyé à toute l’industrie. Pendant des années, le débat autour de l’infrastructure IA s’est concentré sur les GPU et, plus

MCP n’est plus un simple protocole : le vrai test de maturité de l’IA

Il y a un an à peine, évoquer le Model Context Protocol (MCP) revenait à entrer dans une conversation confidentielle entre ingénieurs d’agents IA. Aujourd’hui, la spécification lancée par Anthropic en novembre 2024 est en passe de devenir ce que le TCP/IP fut pour Internet : une couche fondatrice qui décide qui peut parler à qui, et comment. Et comme toute couche fondatrice, elle concentre désormais autant d’espoirs que de controverses. En quelques mois, OpenAI, Google, Microsoft et Anthropic ont tous rallié le standard. Les marketplaces de serveurs MCP explosent, les SDK se multiplient, et les entreprises commencent à brancher ChatGPT, Claude ou Copilot directement sur leurs systèmes internes. Pourtant, derrière cette adoption fulgurante, une question taraude l’écosystème : MCP

Meta : jusqu’à 8 000 licenciements pour accélérer son virage IA

Meta s’apprête à franchir un nouveau cap dans sa transformation. Selon des informations publiées par Reuters et relayées par plusieurs médias américains, la maison mère de Facebook, Instagram et WhatsApp préparerait une vague de licenciements pouvant atteindre 8 000 postes, soit environ 10 % de ses effectifs mondiaux. La première salve serait exécutée le 20 mai, et une seconde phase n’est pas écartée pour la seconde moitié de 2026. À l’heure où nous écrivons ces lignes, Meta n’a confirmé officiellement ni le calendrier ni l’ampleur exacte de cette réorganisation. Le cas de Meta n’est pas isolé : il s’inscrit dans une séquence de restructurations menées par les Big Tech qui conjuguent bénéfices records, investissements massifs dans l’intelligence artificielle et réductions

CoreWeave Blackwell : salle serveurs GPU NVIDIA GB200 NVL72 pour le cloud IA

CoreWeave Blackwell : le challenger du cloud IA defie AWS, Azure et GCP

CoreWeave vient de franchir un seuil qui change la donne sur le marche du cloud IA. L’operateur americain a mis en production des milliers de GPU NVIDIA Blackwell via sa plateforme rack-scale GB200 NVL72, devenant ainsi le premier fournisseur a deployer a grande echelle l’architecture la plus avancee de NVIDIA pour l’entrainement et l’inference. Avec Cohere, IBM et Mistral AI comme premiers clients confirmes, CoreWeave Blackwell n’est plus une annonce marketing mais une realite industrielle, qui bouscule frontalement le trio AWS, Microsoft Azure et Google Cloud. Cette mise en production n’est pas anecdotique. Elle materialise un basculement strategique du marche : la competition cloud IA ne se joue plus sur le catalogue GPU, mais sur la capacite a livrer des

Lumileds Sanan CFIUS : les États-Unis bloquent l’acquisition chinoise et durcissent le contrôle des puces sensibles

Le CFIUS vient de refermer une nouvelle porte au capital chinois dans l’industrie des semi-conducteurs. L’opération paraissait secondaire, presque anodine au regard des chiffres habituellement manipulés dans le secteur, mais son issue raconte une tout autre histoire : Sanan Optoelectronics et son partenaire malaisien Inari Amertron ont officiellement abandonné le 17 avril 2026 leur projet de rachat de Lumileds pour 239 millions de dollars, après que Washington a jugé la transaction porteuse de « risques irrésolubles pour la sécurité nationale ». Derrière cette décision se cache une stratégie plus large, méthodique, qui transforme chaque dossier transatlantique en test politique. Et le message adressé à Pékin comme aux capitales européennes ne laisse aucun doute : certaines briques technologiques ne changeront pas

IPv6 dépasse IPv4 sur Google pour la première fois : pourquoi la France et l’Espagne restent à la traîne

Le 28 mars 2026 restera comme une date charnière dans l’histoire d’Internet. Pour la première fois depuis la création du protocole, IPv6 a dépassé IPv4 sur les services de Google, atteignant 50,1 % du trafic mesuré par le tableau de bord public du géant californien. Un an plus tôt, le même indicateur plafonnait à 46,33 %. Ce franchissement symbolique, même s’il n’est pas encore stable au jour le jour, marque la fin d’une longue période d’hésitation et ouvre une nouvelle ère pour les architectes réseau, les opérateurs et les DSI. Pourtant, derrière cette victoire globale se cache une géographie extrêmement inégale. Pendant que l’Inde, l’Allemagne ou les États-Unis dépassent largement la barre des 50 % d’adoption, la France stagne autour

SOCAMM2 192 Go : SK hynix lance la mémoire LPDDR5X pour NVIDIA Vera Rubin

Le datacenter IA vient de franchir une nouvelle étape dans sa mutation silencieuse : celle de la mémoire système. SK hynix a officialisé le lancement de la production de masse de son module SOCAMM2 de 192 Go, une mémoire LPDDR5X basse consommation gravée selon le procédé 1CnM — la sixième génération de la technologie 10 nanomètres du fabricant sud-coréen. La cible est claire : les plateformes NVIDIA Vera Rubin, nouvelle génération d’architectures serveurs pensées pour l’entraînement et l’inférence des modèles de fondation. Ce qui ressemble, au premier regard, à une simple annonce de composant, est en réalité un signal fort envoyé à toute l’industrie. Pendant des années, le débat autour de l’infrastructure IA s’est concentré sur les GPU et, plus

MCP n’est plus un simple protocole : le vrai test de maturité de l’IA

Il y a un an à peine, évoquer le Model Context Protocol (MCP) revenait à entrer dans une conversation confidentielle entre ingénieurs d’agents IA. Aujourd’hui, la spécification lancée par Anthropic en novembre 2024 est en passe de devenir ce que le TCP/IP fut pour Internet : une couche fondatrice qui décide qui peut parler à qui, et comment. Et comme toute couche fondatrice, elle concentre désormais autant d’espoirs que de controverses. En quelques mois, OpenAI, Google, Microsoft et Anthropic ont tous rallié le standard. Les marketplaces de serveurs MCP explosent, les SDK se multiplient, et les entreprises commencent à brancher ChatGPT, Claude ou Copilot directement sur leurs systèmes internes. Pourtant, derrière cette adoption fulgurante, une question taraude l’écosystème : MCP

Meta : jusqu’à 8 000 licenciements pour accélérer son virage IA

Meta s’apprête à franchir un nouveau cap dans sa transformation. Selon des informations publiées par Reuters et relayées par plusieurs médias américains, la maison mère de Facebook, Instagram et WhatsApp préparerait une vague de licenciements pouvant atteindre 8 000 postes, soit environ 10 % de ses effectifs mondiaux. La première salve serait exécutée le 20 mai, et une seconde phase n’est pas écartée pour la seconde moitié de 2026. À l’heure où nous écrivons ces lignes, Meta n’a confirmé officiellement ni le calendrier ni l’ampleur exacte de cette réorganisation. Le cas de Meta n’est pas isolé : il s’inscrit dans une séquence de restructurations menées par les Big Tech qui conjuguent bénéfices records, investissements massifs dans l’intelligence artificielle et réductions