Catégorie : Cloud

NVIDIA présente pour la première fois le superchip Vera Rubin : deux GPU "de taille réticulaire", CPU Vera de 88 cœurs et objectif de production en 2026

CoreWeave devance l’ère Rubin de NVIDIA : plus de puissance pour l’IA « agentique » et les opérations à l’échelle des racks

CoreWeave a fixé une date — au moins en termes de fenêtre temporelle — pour sa prochaine avancée en infrastructure d’IA : la société a annoncé qu’elle intégrera la plateforme NVIDIA Rubin dans son cloud dédié à l’entraînement et à l’inférence, avec l’objectif d’être parmi les premiers fournisseurs à la déployer dans la seconde moitié de 2026. Cette initiative ne se limite pas simplement à « avoir la nouvelle GPU », mais revêt une signification plus profonde pour le secteur technique : il s’agit de maîtriser une génération d’IA qui pousse la complexité jusqu’au niveau complet du rack, avec des exigences énergétiques, de refroidissement et de réseau qui ne peuvent plus se traiter comme pour de simples serveurs autonomes. La

Meta crée « Meta Compute » et prépare une vague de centres de données pour l'IA à l'échelle de gigawatts

Meta crée « Meta Compute » et prépare une vague de centres de données pour l’IA à l’échelle de gigawatts

Meta a radicalement décidé que sa stratégie en intelligence artificielle ne sera plus simplement considérée comme « un projet parmi d’autres » au sein du département infrastructure. La société a instauré une nouvelle division, Meta Compute, chargée de diriger sa prochaine phase d’expansion des centres de données : un plan ambitieux qui, selon des déclarations attribuées à Mark Zuckerberg, vise à construire plusieurs dizaines de gigawatts au cours de cette décennie et aspire à atteindre des centaines de gigawatts ou plus à l’horizon. Si cette feuille de route se concrétise, Meta se positionnerait parmi les acteurs ayant les plus grands besoins énergétiques et capacités de calcul au monde. Cette nouvelle entité a été créée avec un objectif précis : faire

Dix révolutions à la fois : pourquoi la « vague » des 8 trillions de dollars marquera la décennie (et comment ne pas rester à l'écart)

Trump veut que les géants de l’IA « paient leur part » d’électricité, et Microsoft répond avec un plan de cinq engagements

L’essor des centres de données alimentant l’intelligence artificielle commence à rencontrer une limite aussi physique que politique : l’électricité. Aux États-Unis, ce défi est désormais au cœur du débat public. Le président Donald Trump a affirmé que les grandes sociétés technologiques doivent « payer leur propre facture » énergétique afin que le citoyen moyen ne finisse pas par supporter, via ses factures, le coût de la course au déploiement accru de capacités d’IA. Ce message —publié sur Truth Social— vise directement la crainte qui monte dans de nombreux quartiers : que l’implantation de mégastructures de centres de données n’accélère la demande, n’oblige des investissements dans les réseaux et la production d’électricité, et ne fasse grimper les factures. Trump soutient que

Gemini 3 Pro : ainsi Google veut diriger la nouvelle génération de modèles d'IA de pointe

Google Cloud accélère le « commerce intelligent » avec Gemini Enterprise pour unifier l’achat et le service client

Dans le secteur du retail et de la restauration, l’expérience client se brise presque toujours au même endroit : au moment où il passe de « chercher » à « résoudre ». Un utilisateur découvre un produit sur le site web, pose une question via le chat, passe à l’application pour vérifier la disponibilité en stock, finit par téléphoner pour corriger un envoi… et se retrouve à répéter la même histoire plusieurs fois. Lors du NRF 2026, Google Cloud a décidé d’aborder ce point de friction avec une proposition qui va bien au-delà du chatbot traditionnel : Gemini Enterprise for Customer Experience (CX), une solution “agéntique” conçue pour que l’achat et le service après-vente partagent contexte, données et actions au

SK hynix met 13 milliards sur la table pour contrôler le « goulet d'étranglement » du boom de l'IA

SK hynix met 13 milliards sur la table pour contrôler le « goulet d’étranglement » du boom de l’IA

La course à l’intelligence artificielle ne se joue pas uniquement sur les GPU ou dans la prochaine génération de lithographie. De plus en plus, la bataille se décide à un stade moins visible pour le grand public, mais essentiel pour assurer la livraison des puces dans les délais et avec la qualité requise : le emballage avancé. C’est ici que SK hynix — l’un des principaux moteurs de la montée en puissance de la mémoire HBM dans les centres de données — a choisi d’accélérer de manière décisive ses investissements. La société sud-coréenne a confirmé la construction d’une nouvelle usine d’emballage et de test à Cheongju (province de Chungcheong du Nord), baptisée P&T7, avec un investissement de 19 trillions de

NVIDIA présente pour la première fois le superchip Vera Rubin : deux GPU "de taille réticulaire", CPU Vera de 88 cœurs et objectif de production en 2026

CoreWeave devance l’ère Rubin de NVIDIA : plus de puissance pour l’IA « agentique » et les opérations à l’échelle des racks

CoreWeave a fixé une date — au moins en termes de fenêtre temporelle — pour sa prochaine avancée en infrastructure d’IA : la société a annoncé qu’elle intégrera la plateforme NVIDIA Rubin dans son cloud dédié à l’entraînement et à l’inférence, avec l’objectif d’être parmi les premiers fournisseurs à la déployer dans la seconde moitié de 2026. Cette initiative ne se limite pas simplement à « avoir la nouvelle GPU », mais revêt une signification plus profonde pour le secteur technique : il s’agit de maîtriser une génération d’IA qui pousse la complexité jusqu’au niveau complet du rack, avec des exigences énergétiques, de refroidissement et de réseau qui ne peuvent plus se traiter comme pour de simples serveurs autonomes. La

Meta crée « Meta Compute » et prépare une vague de centres de données pour l'IA à l'échelle de gigawatts

Meta crée « Meta Compute » et prépare une vague de centres de données pour l’IA à l’échelle de gigawatts

Meta a radicalement décidé que sa stratégie en intelligence artificielle ne sera plus simplement considérée comme « un projet parmi d’autres » au sein du département infrastructure. La société a instauré une nouvelle division, Meta Compute, chargée de diriger sa prochaine phase d’expansion des centres de données : un plan ambitieux qui, selon des déclarations attribuées à Mark Zuckerberg, vise à construire plusieurs dizaines de gigawatts au cours de cette décennie et aspire à atteindre des centaines de gigawatts ou plus à l’horizon. Si cette feuille de route se concrétise, Meta se positionnerait parmi les acteurs ayant les plus grands besoins énergétiques et capacités de calcul au monde. Cette nouvelle entité a été créée avec un objectif précis : faire

Dix révolutions à la fois : pourquoi la « vague » des 8 trillions de dollars marquera la décennie (et comment ne pas rester à l'écart)

Trump veut que les géants de l’IA « paient leur part » d’électricité, et Microsoft répond avec un plan de cinq engagements

L’essor des centres de données alimentant l’intelligence artificielle commence à rencontrer une limite aussi physique que politique : l’électricité. Aux États-Unis, ce défi est désormais au cœur du débat public. Le président Donald Trump a affirmé que les grandes sociétés technologiques doivent « payer leur propre facture » énergétique afin que le citoyen moyen ne finisse pas par supporter, via ses factures, le coût de la course au déploiement accru de capacités d’IA. Ce message —publié sur Truth Social— vise directement la crainte qui monte dans de nombreux quartiers : que l’implantation de mégastructures de centres de données n’accélère la demande, n’oblige des investissements dans les réseaux et la production d’électricité, et ne fasse grimper les factures. Trump soutient que

Gemini 3 Pro : ainsi Google veut diriger la nouvelle génération de modèles d'IA de pointe

Google Cloud accélère le « commerce intelligent » avec Gemini Enterprise pour unifier l’achat et le service client

Dans le secteur du retail et de la restauration, l’expérience client se brise presque toujours au même endroit : au moment où il passe de « chercher » à « résoudre ». Un utilisateur découvre un produit sur le site web, pose une question via le chat, passe à l’application pour vérifier la disponibilité en stock, finit par téléphoner pour corriger un envoi… et se retrouve à répéter la même histoire plusieurs fois. Lors du NRF 2026, Google Cloud a décidé d’aborder ce point de friction avec une proposition qui va bien au-delà du chatbot traditionnel : Gemini Enterprise for Customer Experience (CX), une solution “agéntique” conçue pour que l’achat et le service après-vente partagent contexte, données et actions au

SK hynix met 13 milliards sur la table pour contrôler le « goulet d'étranglement » du boom de l'IA

SK hynix met 13 milliards sur la table pour contrôler le « goulet d’étranglement » du boom de l’IA

La course à l’intelligence artificielle ne se joue pas uniquement sur les GPU ou dans la prochaine génération de lithographie. De plus en plus, la bataille se décide à un stade moins visible pour le grand public, mais essentiel pour assurer la livraison des puces dans les délais et avec la qualité requise : le emballage avancé. C’est ici que SK hynix — l’un des principaux moteurs de la montée en puissance de la mémoire HBM dans les centres de données — a choisi d’accélérer de manière décisive ses investissements. La société sud-coréenne a confirmé la construction d’une nouvelle usine d’emballage et de test à Cheongju (province de Chungcheong du Nord), baptisée P&T7, avec un investissement de 19 trillions de