Étiquette : NVIDIA

Factures, serveurs et sanctions : La Chine rouvre l'affaire Nvidia

NVIDIA en Chine : factures, serveurs et sanctions rouvrent l’affaire

La pression sur le contrôle des GPU avancés vers la Chine a augmenté suite à la découverte de documents fiscaux indiquant l’achat de près de 300 serveurs d’IA par Sharetronic Data Technology (Shenzhen). Selon Bloomberg, la société a vendu 276 serveurs Super Micro SYS-821GE-TNHR et 32 Dell PowerEdge XE9680 pour environ 92 millions de dollars en mai-juin 2025. Ces modèles sont compatibles avec des accélérateurs soumis aux restrictions américaines. Le Super Micro supporte NVIDIA HGX H100 et H200. Le Dell PowerEdge XE9680 est compatible avec H100, H200, H20, H800, AMD Instinct MI300X et Intel Gaudi 3. Les restrictions ont débuté en octobre 2022 et ont été progressivement élargies. Les factures ne prouvent pas la configuration exacte ni ne confirment une

Intel offre au secteur de la défense une feuille de route avec 18A, chiplets et emballage avancé

Intel Foundry vise la défense : 18A, chiplets et emballage avancé

Intel Foundry concentre ses efforts sur le marché aérospatial, défense et gouvernemental. La société propose une modernisation basée sur Intel 18A, chiplets, packaging hétérogène et fabrication sécurisée aux États-Unis. De nombreuses plateformes critiques dépendent encore de microélectronique vieillissante, creusant l’écart entre exigences opérationnelles et capacité réelle des systèmes déployés. Intel 18A au cœur de la modernisation Le nœud 18A intègre RibbonFET (gate-all-around) et PowerVia (alimentation par l’arrière). Selon Intel, à performance égale il offre 2x plus de rendement qu’Intel 16, 5x moins de consommation et 10x plus de densité. Deux variantes : 18A-P (équilibre vitesse/consommation) et 18A-PT (architectures 3DIC avec TSV passifs). Cette stratégie complète l’alliance Intel-Google pour l’infrastructure IA. Le packaging comme élément stratégique Intel Foundry met en avant

Avancées en téléportation quantique de données : Les réseaux de communication du futur

Intel et Google : alliance renforcée pour l’infrastructure IA

Intel et Google ont annoncé le 9 avril une extension pluriannuelle de leur collaboration pour développer la prochaine génération d’infrastructures cloud et IA. Message clé : l’IA moderne ne repose pas uniquement sur des accélérateurs mais sur des systèmes hétérogènes où la CPU retrouve son importance. Les Intel Xeon continueront dans l’infrastructure Google Cloud, avec co-développement d’IPU personnalisées (ASIC) pour l’efficacité à grande échelle. Intel repositionne la CPU au centre du débat IA, à un moment où l’inférence et les agents nécessitent plus que des GPU. Cette stratégie complète le partenariat Intel-SambaNova pour l’inférence IA agentique et la feuille de route Intel 18A pour la défense. Xeon reste la base du cloud Google Google Cloud utilisera les Xeon pour plusieurs

NVIDIA et Nokia ouvrent l'ère native de la 6G IA : alliance stratégique, investissement de 1 milliard de dollars et plateforme AI-RAN avec ARC-Pro

NVIDIA et Nokia : transformer le réseau télécom en infrastructure IA

NVIDIA a investi 1 milliard de dollars dans Nokia en octobre 2025 à 6,01 $/action. Au 10 avril 2026, les ADR clôturaient à 9,46 $ : +57,4 %. Mais réduire cette opération à une plus-value serait passer à côté de l’enjeu réel : redéfinir le réseau télécom comme une couche distribuée d’inférence IA. L’alliance intègre des produits AI-RAN dans le portefeuille radio de Nokia. La stratégie : déporter la charge IA au plus proche du réseau. NVIDIA ARC-Pro (RTX PRO 4500/6000 Blackwell Server Edition) équipe les sites. T-Mobile est le premier opérateur US à expérimenter avec le logiciel anyRAN de Nokia. Cette approche complète les déploiements edge déjà engagés, comme le partenariat Siemens-NVIDIA pour l’IA industrielle à l’edge. NVIDIA parle

Uber étend son accord avec AWS et teste Trainium3 pour son moteur d'IA

Uber et AWS : Trainium3 au service du moteur d’IA de la mobilité

Uber a renforcé sa collaboration avec AWS en étendant l’utilisation de Graviton4 pour ses Trip Serving Zones (infrastructure temps réel de chaque trajet/livraison) et en testant Trainium3 pour l’entraînement de modèles IA. Ce dépassement de la simple migration cloud illustre comment Uber choisit le type de silicium le plus adapté à chaque charge. AWS est déjà confronté à une demande énorme pour ses puces maison, comme le montre le fait que deux clients voulaient toute la capacité Graviton en 2026. Graviton4 pour le temps réel Les Trip Serving Zones traitent des données de localisation et génèrent des millions de prédictions en millisecondes. Graviton4 réduit la consommation énergétique, accélère la montée en charge et diminue la latence. « Les millisecondes comptent

Cloudera renforce sa plateforme hybride de données avec un support jusqu'en 2032, une évolutivité flexible et une interopérabilité ouverte

Cloudera renforce sa plateforme hybride : support 2032 et interopérabilité

Cloudera a dévoilé le 8 avril 2026 de nouvelles capacités pour sa plateforme hybride de gestion des données et IA : support étendu jusqu’en 2032, élasticité hybride et interopérabilité ouverte. Le message : réduire les migrations traumatiques et offrir de la flexibilité pour exécuter analyses et IA là où c’est le plus efficace, on-premise ou cloud. Le support long terme est stratégique : il permet aux organisations de consacrer moins de temps au replatforming et plus à l’analyse et à l’IA. L’innovation technique clé porte sur Apache Iceberg pour l’interopérabilité lakehouse entre Spark, Trino, Flink et Impala. Le Lakehouse Optimizer promet +38 % de performance et -36 % de coûts stockage. Le Cloud Bursting étend dynamiquement les ressources locales vers

Factures, serveurs et sanctions : La Chine rouvre l'affaire Nvidia

NVIDIA en Chine : factures, serveurs et sanctions rouvrent l’affaire

La pression sur le contrôle des GPU avancés vers la Chine a augmenté suite à la découverte de documents fiscaux indiquant l’achat de près de 300 serveurs d’IA par Sharetronic Data Technology (Shenzhen). Selon Bloomberg, la société a vendu 276 serveurs Super Micro SYS-821GE-TNHR et 32 Dell PowerEdge XE9680 pour environ 92 millions de dollars en mai-juin 2025. Ces modèles sont compatibles avec des accélérateurs soumis aux restrictions américaines. Le Super Micro supporte NVIDIA HGX H100 et H200. Le Dell PowerEdge XE9680 est compatible avec H100, H200, H20, H800, AMD Instinct MI300X et Intel Gaudi 3. Les restrictions ont débuté en octobre 2022 et ont été progressivement élargies. Les factures ne prouvent pas la configuration exacte ni ne confirment une

Intel offre au secteur de la défense une feuille de route avec 18A, chiplets et emballage avancé

Intel Foundry vise la défense : 18A, chiplets et emballage avancé

Intel Foundry concentre ses efforts sur le marché aérospatial, défense et gouvernemental. La société propose une modernisation basée sur Intel 18A, chiplets, packaging hétérogène et fabrication sécurisée aux États-Unis. De nombreuses plateformes critiques dépendent encore de microélectronique vieillissante, creusant l’écart entre exigences opérationnelles et capacité réelle des systèmes déployés. Intel 18A au cœur de la modernisation Le nœud 18A intègre RibbonFET (gate-all-around) et PowerVia (alimentation par l’arrière). Selon Intel, à performance égale il offre 2x plus de rendement qu’Intel 16, 5x moins de consommation et 10x plus de densité. Deux variantes : 18A-P (équilibre vitesse/consommation) et 18A-PT (architectures 3DIC avec TSV passifs). Cette stratégie complète l’alliance Intel-Google pour l’infrastructure IA. Le packaging comme élément stratégique Intel Foundry met en avant

Avancées en téléportation quantique de données : Les réseaux de communication du futur

Intel et Google : alliance renforcée pour l’infrastructure IA

Intel et Google ont annoncé le 9 avril une extension pluriannuelle de leur collaboration pour développer la prochaine génération d’infrastructures cloud et IA. Message clé : l’IA moderne ne repose pas uniquement sur des accélérateurs mais sur des systèmes hétérogènes où la CPU retrouve son importance. Les Intel Xeon continueront dans l’infrastructure Google Cloud, avec co-développement d’IPU personnalisées (ASIC) pour l’efficacité à grande échelle. Intel repositionne la CPU au centre du débat IA, à un moment où l’inférence et les agents nécessitent plus que des GPU. Cette stratégie complète le partenariat Intel-SambaNova pour l’inférence IA agentique et la feuille de route Intel 18A pour la défense. Xeon reste la base du cloud Google Google Cloud utilisera les Xeon pour plusieurs

NVIDIA et Nokia ouvrent l'ère native de la 6G IA : alliance stratégique, investissement de 1 milliard de dollars et plateforme AI-RAN avec ARC-Pro

NVIDIA et Nokia : transformer le réseau télécom en infrastructure IA

NVIDIA a investi 1 milliard de dollars dans Nokia en octobre 2025 à 6,01 $/action. Au 10 avril 2026, les ADR clôturaient à 9,46 $ : +57,4 %. Mais réduire cette opération à une plus-value serait passer à côté de l’enjeu réel : redéfinir le réseau télécom comme une couche distribuée d’inférence IA. L’alliance intègre des produits AI-RAN dans le portefeuille radio de Nokia. La stratégie : déporter la charge IA au plus proche du réseau. NVIDIA ARC-Pro (RTX PRO 4500/6000 Blackwell Server Edition) équipe les sites. T-Mobile est le premier opérateur US à expérimenter avec le logiciel anyRAN de Nokia. Cette approche complète les déploiements edge déjà engagés, comme le partenariat Siemens-NVIDIA pour l’IA industrielle à l’edge. NVIDIA parle

Uber étend son accord avec AWS et teste Trainium3 pour son moteur d'IA

Uber et AWS : Trainium3 au service du moteur d’IA de la mobilité

Uber a renforcé sa collaboration avec AWS en étendant l’utilisation de Graviton4 pour ses Trip Serving Zones (infrastructure temps réel de chaque trajet/livraison) et en testant Trainium3 pour l’entraînement de modèles IA. Ce dépassement de la simple migration cloud illustre comment Uber choisit le type de silicium le plus adapté à chaque charge. AWS est déjà confronté à une demande énorme pour ses puces maison, comme le montre le fait que deux clients voulaient toute la capacité Graviton en 2026. Graviton4 pour le temps réel Les Trip Serving Zones traitent des données de localisation et génèrent des millions de prédictions en millisecondes. Graviton4 réduit la consommation énergétique, accélère la montée en charge et diminue la latence. « Les millisecondes comptent

Cloudera renforce sa plateforme hybride de données avec un support jusqu'en 2032, une évolutivité flexible et une interopérabilité ouverte

Cloudera renforce sa plateforme hybride : support 2032 et interopérabilité

Cloudera a dévoilé le 8 avril 2026 de nouvelles capacités pour sa plateforme hybride de gestion des données et IA : support étendu jusqu’en 2032, élasticité hybride et interopérabilité ouverte. Le message : réduire les migrations traumatiques et offrir de la flexibilité pour exécuter analyses et IA là où c’est le plus efficace, on-premise ou cloud. Le support long terme est stratégique : il permet aux organisations de consacrer moins de temps au replatforming et plus à l’analyse et à l’IA. L’innovation technique clé porte sur Apache Iceberg pour l’interopérabilité lakehouse entre Spark, Trino, Flink et Impala. Le Lakehouse Optimizer promet +38 % de performance et -36 % de coûts stockage. Le Cloud Bursting étend dynamiquement les ressources locales vers