Catégorie : Cloud

Rackspace Technology lance un service de GPU à la demande propulsé par NVIDIA pour accélérer l'intelligence artificielle et l'apprentissage automatique

Rackspace et AMD misent sur un cloud IA gouverné pour les secteurs réglementés

Rackspace Technology et AMD ont signé un protocole d’accord pour bâtir une infrastructure d’IA d’entreprise taillée pour les secteurs réglementés. Pas un cloud générique : une plateforme dédiée, gérée et gouvernée, tournant sur des GPU AMD Instinct et des processeurs AMD EPYC, avec Rackspace en charge de l’ensemble du stack, du matériel à l’inférence en production. La finance, la santé, la fonction publique et les télécoms sont dans le viseur. Précision utile d’emblée : il s’agit d’un MOU, un cadre de collaboration potentielle, pas d’un accord commercial définitif. Rackspace le dit clairement dans son communiqué — aucun contrat n’a été signé, les bénéfices annoncés ne sont pas garantis. Autant le poser avant d’analyser la portée réelle de cette initiative. Un

TSMC ouvre l'ère des 2 nanomètres et laisse à Samsung une opportunité inattendue : capacité au maximum, prix à la hausse et clients cherchant une solution de rechange

AMD chez Samsung Foundry : la rumeur qui bouscule la course aux puces de 2 nm

Samsung Foundry aurait obtenu une commande significative de puces de 2 nanomètres d’un client fabless nord-américain. Le nom qui circule est AMD, bien qu’aucune des deux parties n’ait confirmé. L’information provient d’une note de Daishin Securities citée par le leakster Jukan et relayée par des médias spécialisés, qui évoquent une prétendue commande de CPU 2 nm pour portables. Si cela se confirme, c’est un signal important pour Samsung, qui cherche depuis plusieurs années à regagner en crédibilité en fabrication avancée face à la domination de TSMC. Il faut lire cette nouvelle avec prudence. AMD a déjà annoncé en avril 2025 que sa prochaine génération de processeurs EPYC Venice avait atteint le premier échantillon en silicium sur le nœud N2 de

SK hynix achève le développement du HBM4 et se prépare à dominer la mémoire à large bande passante à l'ère de l'IA

SK Hynix teste Intel EMIB : une alternative à CoWoS pour l’empaquetage IA

SK Hynix teste actuellement la technologie d’assemblage avancé EMIB d’Intel pour intégrer la mémoire HBM avec des puces logiques. Le mouvement s’inscrit dans la lutte contre l’un des principaux blocages de l’intelligence artificielle : l’empaquetage en 2,5D. D’après des sources issues de médias asiatiques, cette collaboration en est encore à ses premières phases de R&D et ne doit pas être interprétée comme un accord commercial ni comme une production de masse imminente. Ce développement a de l’importance parce que la chaîne d’approvisionnement des accélérateurs IA dépend de plus en plus de la capacité à assembler plusieurs composants dans un même package : GPU ou ASIC, mémoire HBM, interconnexions et interposers. Ces dernières années, TSMC s’est imposé avec CoWoS pour combiner

La route thaïlandaise des puces NVIDIA rouvre la guerre technologique avec la Chine

Puces NVIDIA détournées via la Thaïlande : le DOJ met en lumière la guerre des chips avec la Chine

L’enquête menée aux États-Unis sur le prétendu détournement de serveurs d’intelligence artificielle vers la Chine a pris une dimension nouvelle. L’affaire ne se limite plus aux puces NVIDIA, aux contrôles à l’exportation ou aux serveurs de Super Micro. Elle pointe vers une route en Asie du Sud-Est, avec la Thaïlande comme étape intermédiaire et Alibaba mentionné par Bloomberg comme l’un des clients finaux pour une partie du matériel. La société chinoise nie fermement toute implication. Le Département de la Justice américain accuse Yih-Shyan “Wally” Liaw, Ruei-Tsang “Steven” Chang et Ting-Wei “Willy” Sun d’être potentiellement impliqués dans un réseau visant à détourner des serveurs haute performance assemblés aux États-Unis vers des clients en Chine, malgré les restrictions à l’exportation. Liaw et

Centres de données pour l'IA : la facture infrastructure dépasse les salaires chez NVIDIA

La facture IA : chez NVIDIA, le calcul a déjà dépassé le coût des salaires

L’intelligence artificielle a été vendue pendant des mois comme un levier pour réduire les coûts, automatiser les tâches et accélérer la productivité. La réalité qui émerge dans certaines entreprises technologiques est plus dérangeante : utiliser une IA avancée peut aussi coûter très cher. Pas seulement en abonnements aux modèles, mais en tokens, en GPU, en mémoire, en centres de données et en toute l’infrastructure nécessaire pour soutenir des agents, des copilotes et des charges d’inférence à grande échelle. La citation la plus révélatrice vient de Bryan Catanzaro, vice-président de l’apprentissage profond appliqué chez NVIDIA, interrogé par Axios : « Pour mon équipe, le coût du calcul est bien supérieur au coût des employés. » Une précision s’impose : cela ne

Incendie au centre de données NorthC d'Almere : leçons de continuité et résilience cloud

Incendie NorthC Almere : Stackscale passe le test de continuité cloud en conditions réelles

L’incendie déclaré le 7 mai au centre de données de NorthC à Almere a rappelé une vérité que le secteur du cloud évoque souvent en présentations, mais que l’on ne comprend vraiment que lors d’une crise. L’infrastructure numérique brûle aussi, doit être évacuée, devient inaccessible et peut mettre hors service des entreprises, universités, administrations et professionnels qui, jusqu’alors, considéraient la disponibilité de leurs systèmes comme acquise. Dans ce contexte, le témoignage public de Jeroen Derks, spécialiste en PHP et Laravel, a donné un nom à une partie moins visible de la réponse technique. Après l’incendie, Derks a expliqué sur LinkedIn que son serveur géré par Stackscale était à nouveau opérationnel dans un autre emplacement “en un temps record”. Pendant qu’il

Rackspace Technology lance un service de GPU à la demande propulsé par NVIDIA pour accélérer l'intelligence artificielle et l'apprentissage automatique

Rackspace et AMD misent sur un cloud IA gouverné pour les secteurs réglementés

Rackspace Technology et AMD ont signé un protocole d’accord pour bâtir une infrastructure d’IA d’entreprise taillée pour les secteurs réglementés. Pas un cloud générique : une plateforme dédiée, gérée et gouvernée, tournant sur des GPU AMD Instinct et des processeurs AMD EPYC, avec Rackspace en charge de l’ensemble du stack, du matériel à l’inférence en production. La finance, la santé, la fonction publique et les télécoms sont dans le viseur. Précision utile d’emblée : il s’agit d’un MOU, un cadre de collaboration potentielle, pas d’un accord commercial définitif. Rackspace le dit clairement dans son communiqué — aucun contrat n’a été signé, les bénéfices annoncés ne sont pas garantis. Autant le poser avant d’analyser la portée réelle de cette initiative. Un

TSMC ouvre l'ère des 2 nanomètres et laisse à Samsung une opportunité inattendue : capacité au maximum, prix à la hausse et clients cherchant une solution de rechange

AMD chez Samsung Foundry : la rumeur qui bouscule la course aux puces de 2 nm

Samsung Foundry aurait obtenu une commande significative de puces de 2 nanomètres d’un client fabless nord-américain. Le nom qui circule est AMD, bien qu’aucune des deux parties n’ait confirmé. L’information provient d’une note de Daishin Securities citée par le leakster Jukan et relayée par des médias spécialisés, qui évoquent une prétendue commande de CPU 2 nm pour portables. Si cela se confirme, c’est un signal important pour Samsung, qui cherche depuis plusieurs années à regagner en crédibilité en fabrication avancée face à la domination de TSMC. Il faut lire cette nouvelle avec prudence. AMD a déjà annoncé en avril 2025 que sa prochaine génération de processeurs EPYC Venice avait atteint le premier échantillon en silicium sur le nœud N2 de

SK hynix achève le développement du HBM4 et se prépare à dominer la mémoire à large bande passante à l'ère de l'IA

SK Hynix teste Intel EMIB : une alternative à CoWoS pour l’empaquetage IA

SK Hynix teste actuellement la technologie d’assemblage avancé EMIB d’Intel pour intégrer la mémoire HBM avec des puces logiques. Le mouvement s’inscrit dans la lutte contre l’un des principaux blocages de l’intelligence artificielle : l’empaquetage en 2,5D. D’après des sources issues de médias asiatiques, cette collaboration en est encore à ses premières phases de R&D et ne doit pas être interprétée comme un accord commercial ni comme une production de masse imminente. Ce développement a de l’importance parce que la chaîne d’approvisionnement des accélérateurs IA dépend de plus en plus de la capacité à assembler plusieurs composants dans un même package : GPU ou ASIC, mémoire HBM, interconnexions et interposers. Ces dernières années, TSMC s’est imposé avec CoWoS pour combiner

La route thaïlandaise des puces NVIDIA rouvre la guerre technologique avec la Chine

Puces NVIDIA détournées via la Thaïlande : le DOJ met en lumière la guerre des chips avec la Chine

L’enquête menée aux États-Unis sur le prétendu détournement de serveurs d’intelligence artificielle vers la Chine a pris une dimension nouvelle. L’affaire ne se limite plus aux puces NVIDIA, aux contrôles à l’exportation ou aux serveurs de Super Micro. Elle pointe vers une route en Asie du Sud-Est, avec la Thaïlande comme étape intermédiaire et Alibaba mentionné par Bloomberg comme l’un des clients finaux pour une partie du matériel. La société chinoise nie fermement toute implication. Le Département de la Justice américain accuse Yih-Shyan “Wally” Liaw, Ruei-Tsang “Steven” Chang et Ting-Wei “Willy” Sun d’être potentiellement impliqués dans un réseau visant à détourner des serveurs haute performance assemblés aux États-Unis vers des clients en Chine, malgré les restrictions à l’exportation. Liaw et

Centres de données pour l'IA : la facture infrastructure dépasse les salaires chez NVIDIA

La facture IA : chez NVIDIA, le calcul a déjà dépassé le coût des salaires

L’intelligence artificielle a été vendue pendant des mois comme un levier pour réduire les coûts, automatiser les tâches et accélérer la productivité. La réalité qui émerge dans certaines entreprises technologiques est plus dérangeante : utiliser une IA avancée peut aussi coûter très cher. Pas seulement en abonnements aux modèles, mais en tokens, en GPU, en mémoire, en centres de données et en toute l’infrastructure nécessaire pour soutenir des agents, des copilotes et des charges d’inférence à grande échelle. La citation la plus révélatrice vient de Bryan Catanzaro, vice-président de l’apprentissage profond appliqué chez NVIDIA, interrogé par Axios : « Pour mon équipe, le coût du calcul est bien supérieur au coût des employés. » Une précision s’impose : cela ne

Incendie au centre de données NorthC d'Almere : leçons de continuité et résilience cloud

Incendie NorthC Almere : Stackscale passe le test de continuité cloud en conditions réelles

L’incendie déclaré le 7 mai au centre de données de NorthC à Almere a rappelé une vérité que le secteur du cloud évoque souvent en présentations, mais que l’on ne comprend vraiment que lors d’une crise. L’infrastructure numérique brûle aussi, doit être évacuée, devient inaccessible et peut mettre hors service des entreprises, universités, administrations et professionnels qui, jusqu’alors, considéraient la disponibilité de leurs systèmes comme acquise. Dans ce contexte, le témoignage public de Jeroen Derks, spécialiste en PHP et Laravel, a donné un nom à une partie moins visible de la réponse technique. Après l’incendie, Derks a expliqué sur LinkedIn que son serveur géré par Stackscale était à nouveau opérationnel dans un autre emplacement “en un temps record”. Pendant qu’il