Catégorie : Cloud

La Chine mise sur MetaX, la nouvelle étoile chinoise des puces IA qui éclipse Moore Threads lors de ses débuts en bourse

La Chine mise sur MetaX, la nouvelle étoile chinoise des puces IA qui éclipse Moore Threads lors de ses débuts en bourse

MetaX Integrated Circuits, une jeune entreprise de semi-conducteurs basée à Shanghai, est devenue la nouvelle sensation sur le marché chinois. Spécialisée dans les GPU pour l’intelligence artificielle, la société suscite un intérêt croissant, notamment auprès des investisseurs particuliers, en anticipation de son introduction en bourse, au même titre que son concurrent Moore Threads. D’après les informations transmises à la bourse, MetaX a attiré 5,17 millions d’investisseurs particuliers lors de sa souscription en ligne, enregistrant un taux d’allocation final d’à peine 0,033 %. Moore Threads, qui a fait ses débuts la semaine précédente, a mobilisé 4,82 millions d’investisseurs, avec un taux d’attribution de 0,036 %. Fondée en 2020, MetaX est considérée comme l’une des principales espérances de la Chine pour le

CommScope met à jour SYSTIMAX Constellation : puissance et données en périphérie avec fibre hybride et topologie en étoile pour des bâtiments hyperconnectés

Google et Microsoft accélèrent : ils privilégient la vitesse à tout prix alors que les hyperscalers rivalisent pour chaque giga de mémoire

La nouvelle fièvre de l’or dans le cloud n’est plus axée sur les GPU, mais sur la mémoire. Plusieurs rapports du secteur soulignent un déséquilibre croissant entre l’offre et la demande de DRAM et HBM pour les centres de données, et les grands fournisseurs de services cloud (CSP, pour Cloud Service Providers) réagissent de manières très diverses. Parmi les acteurs américains, Google et Microsoft privilégieraient clairement la vitesse et la disponibilité au détriment du coût, allant jusqu’à accepter des surcoûts pour garantir un approvisionnement prioritaire. Pénurie de mémoire en pleine course à l’IA Le déclencheur est connu : l’explosion de l’IA générative et des modèles de grande taille a fortement dopé la demande en mémoire haute performance, aussi bien HBM

ASML, dans le viseur pour avoir vendu des équipements de lithographie DUV à une entreprise chinoise ayant des liens militaires

ASML, dans le viseur pour avoir vendu des équipements de lithographie DUV à une entreprise chinoise ayant des liens militaires

ASML, le géant néerlandais dominant le marché mondial des équipements de lithographie pour la fabrication de semi-conducteurs, se retrouve à nouveau au cœur du bras de fer technologique entre l’Occident et la Chine. Un reportage de la télévision publique néerlandaise (Nieuwsuur) a révélé qu’au moins l’une de ses clientèles en Chine est liée au Liway — l’armée populaire de libération — ainsi qu’à un institut de pointe dans les technologies quantiques. La société admet avoir vendu des machines à plusieurs clients chinois, mais affirme que tous les envois ont été effectués dans le strict respect de la législation sur le contrôle des exportations : soit avec une licence explicite, soit en utilisant des équipements qui n’étaient pas soumis à des

OpenAI analyse la nouvelle infrastructure d'IA en entreprise : beaucoup de code, de nombreux agents… et un fossé qui se creuse

OpenAI analyse la nouvelle infrastructure d’IA en entreprise : beaucoup de code, de nombreux agents… et un fossé qui se creuse

OpenAI a publié son premier State of Enterprise AI 2025, un rapport qui met des chiffres concrets sur quelque chose que beaucoup de CTO, CIO et équipes de données pressentent déjà : l’intelligence artificielle cesse d’être une simple « application » pour devenir une couche d’infrastructure sur laquelle se construisent des produits, des flux de travail et même de nouveaux modèles économiques. Cette situation est particulièrement significative pour un public technologique : elle évoque les tokens, API, agents, connecteurs, évaluations continues et, surtout, une différenciation croissante entre les organisations qui industrialisent l’IA et celles qui restent en mode expérimental. De la preuve de concept à l’infrastructure : l’IA comme une nouvelle couche du stack En seulement trois ans, plus d’un

IBM achète Confluent pour 11 milliards de dollars : ainsi veut-il construire la « plateforme de données intelligente » pour l'ère de l'IA générative

IBM achète Confluent pour 11 milliards de dollars : ainsi veut-il construire la « plateforme de données intelligente » pour l’ère de l’IA générative

IBM frappe fort en le secteur de l’intelligence artificielle d’entreprise avec une nouvelle acquisition stratégique. La société a annoncé la signature d’un accord définitif pour racheter Confluent, pionnier du streaming de données, pour 11 milliards de dollars (31 dollars par action, en cash). Cette opération vise à créer une plateforme « smart data » dédiée aux cas d’utilisation de l’IA générative et des agents d’IA en entreprise. Fondée par les créateurs originaux d’Apache Kafka, Confluent s’est affirmée comme la référence du streaming de données en temps réel, comptant plus de 6 500 clients et étant présente dans plus de 40 % des entreprises du Fortune 500. Sa technologie permet de connecter, traiter et gouverner des flux de données et d’événements

Amazon lance Graviton5 : le CPU ARM à 192 noyaux qui veut dominer le cloud haute performance

Amazon lance Graviton5 : le CPU ARM à 192 noyaux qui veut dominer le cloud haute performance

Amazon Web Services continue d’innover dans le domaine du cloud avec l’annonce de Graviton5, la cinquième génération de processeurs ARM conçus en interne pour Amazon EC2. La société présente ce nouveau processeur comme sa CPU « la plus puissante et efficace à ce jour », envoyant un message clair : offrir plus de performances, de meilleurs tarifs et une consommation d’énergie réduite pour des charges de travail de plus en plus complexes. Jusqu’à 192 cœurs et 5 fois plus de cache Le Graviton5 est conçu pour optimiser la scalabilité des charges de travail cloud : Jusqu’à 192 cœurs par puce, la densité CPU la plus élevée disponible aujourd’hui sur EC2. Cache L3 cinq fois plus grand que celui du Graviton4,

La Chine mise sur MetaX, la nouvelle étoile chinoise des puces IA qui éclipse Moore Threads lors de ses débuts en bourse

La Chine mise sur MetaX, la nouvelle étoile chinoise des puces IA qui éclipse Moore Threads lors de ses débuts en bourse

MetaX Integrated Circuits, une jeune entreprise de semi-conducteurs basée à Shanghai, est devenue la nouvelle sensation sur le marché chinois. Spécialisée dans les GPU pour l’intelligence artificielle, la société suscite un intérêt croissant, notamment auprès des investisseurs particuliers, en anticipation de son introduction en bourse, au même titre que son concurrent Moore Threads. D’après les informations transmises à la bourse, MetaX a attiré 5,17 millions d’investisseurs particuliers lors de sa souscription en ligne, enregistrant un taux d’allocation final d’à peine 0,033 %. Moore Threads, qui a fait ses débuts la semaine précédente, a mobilisé 4,82 millions d’investisseurs, avec un taux d’attribution de 0,036 %. Fondée en 2020, MetaX est considérée comme l’une des principales espérances de la Chine pour le

CommScope met à jour SYSTIMAX Constellation : puissance et données en périphérie avec fibre hybride et topologie en étoile pour des bâtiments hyperconnectés

Google et Microsoft accélèrent : ils privilégient la vitesse à tout prix alors que les hyperscalers rivalisent pour chaque giga de mémoire

La nouvelle fièvre de l’or dans le cloud n’est plus axée sur les GPU, mais sur la mémoire. Plusieurs rapports du secteur soulignent un déséquilibre croissant entre l’offre et la demande de DRAM et HBM pour les centres de données, et les grands fournisseurs de services cloud (CSP, pour Cloud Service Providers) réagissent de manières très diverses. Parmi les acteurs américains, Google et Microsoft privilégieraient clairement la vitesse et la disponibilité au détriment du coût, allant jusqu’à accepter des surcoûts pour garantir un approvisionnement prioritaire. Pénurie de mémoire en pleine course à l’IA Le déclencheur est connu : l’explosion de l’IA générative et des modèles de grande taille a fortement dopé la demande en mémoire haute performance, aussi bien HBM

ASML, dans le viseur pour avoir vendu des équipements de lithographie DUV à une entreprise chinoise ayant des liens militaires

ASML, dans le viseur pour avoir vendu des équipements de lithographie DUV à une entreprise chinoise ayant des liens militaires

ASML, le géant néerlandais dominant le marché mondial des équipements de lithographie pour la fabrication de semi-conducteurs, se retrouve à nouveau au cœur du bras de fer technologique entre l’Occident et la Chine. Un reportage de la télévision publique néerlandaise (Nieuwsuur) a révélé qu’au moins l’une de ses clientèles en Chine est liée au Liway — l’armée populaire de libération — ainsi qu’à un institut de pointe dans les technologies quantiques. La société admet avoir vendu des machines à plusieurs clients chinois, mais affirme que tous les envois ont été effectués dans le strict respect de la législation sur le contrôle des exportations : soit avec une licence explicite, soit en utilisant des équipements qui n’étaient pas soumis à des

OpenAI analyse la nouvelle infrastructure d'IA en entreprise : beaucoup de code, de nombreux agents… et un fossé qui se creuse

OpenAI analyse la nouvelle infrastructure d’IA en entreprise : beaucoup de code, de nombreux agents… et un fossé qui se creuse

OpenAI a publié son premier State of Enterprise AI 2025, un rapport qui met des chiffres concrets sur quelque chose que beaucoup de CTO, CIO et équipes de données pressentent déjà : l’intelligence artificielle cesse d’être une simple « application » pour devenir une couche d’infrastructure sur laquelle se construisent des produits, des flux de travail et même de nouveaux modèles économiques. Cette situation est particulièrement significative pour un public technologique : elle évoque les tokens, API, agents, connecteurs, évaluations continues et, surtout, une différenciation croissante entre les organisations qui industrialisent l’IA et celles qui restent en mode expérimental. De la preuve de concept à l’infrastructure : l’IA comme une nouvelle couche du stack En seulement trois ans, plus d’un

IBM achète Confluent pour 11 milliards de dollars : ainsi veut-il construire la « plateforme de données intelligente » pour l'ère de l'IA générative

IBM achète Confluent pour 11 milliards de dollars : ainsi veut-il construire la « plateforme de données intelligente » pour l’ère de l’IA générative

IBM frappe fort en le secteur de l’intelligence artificielle d’entreprise avec une nouvelle acquisition stratégique. La société a annoncé la signature d’un accord définitif pour racheter Confluent, pionnier du streaming de données, pour 11 milliards de dollars (31 dollars par action, en cash). Cette opération vise à créer une plateforme « smart data » dédiée aux cas d’utilisation de l’IA générative et des agents d’IA en entreprise. Fondée par les créateurs originaux d’Apache Kafka, Confluent s’est affirmée comme la référence du streaming de données en temps réel, comptant plus de 6 500 clients et étant présente dans plus de 40 % des entreprises du Fortune 500. Sa technologie permet de connecter, traiter et gouverner des flux de données et d’événements

Amazon lance Graviton5 : le CPU ARM à 192 noyaux qui veut dominer le cloud haute performance

Amazon lance Graviton5 : le CPU ARM à 192 noyaux qui veut dominer le cloud haute performance

Amazon Web Services continue d’innover dans le domaine du cloud avec l’annonce de Graviton5, la cinquième génération de processeurs ARM conçus en interne pour Amazon EC2. La société présente ce nouveau processeur comme sa CPU « la plus puissante et efficace à ce jour », envoyant un message clair : offrir plus de performances, de meilleurs tarifs et une consommation d’énergie réduite pour des charges de travail de plus en plus complexes. Jusqu’à 192 cœurs et 5 fois plus de cache Le Graviton5 est conçu pour optimiser la scalabilité des charges de travail cloud : Jusqu’à 192 cœurs par puce, la densité CPU la plus élevée disponible aujourd’hui sur EC2. Cache L3 cinq fois plus grand que celui du Graviton4,