Étiquette : Akamai

Avancées en téléportation quantique de données : Les réseaux de communication du futur

HetCCL : la pièce manquante pour entraîner des modèles avec des GPU NVIDIA et AMD dans le même cluster

La course à la formation de modèles de langage de plus en plus grands rencontre un problème moins visible que la taille des paramètres ou la qualité des données : la logistique du matériel informatique. En pratique, déployer une infrastructure de machine learning à grande échelle ne consiste plus seulement à “acheter plus de GPU”, mais aussi à les obtenir, à les intégrer et à faire en sorte qu’ils travaillent ensemble sans transformer le système en un casse-tête de compatibilités. C’est là qu’intervient HetCCL, une nouvelle bibliothèque de communication collective présentée par une équipe de chercheurs affiliée à l’Université nationale de Séoul et à Samsung Research. Sa proposition cible un goulet d’étranglement précis : la difficulté d’utiliser efficacement et en

Submer achète Radian Arc et renforce la course au cloud GPU "à l'intérieur" des réseaux télécom

Submer achète Radian Arc et renforce la course au cloud GPU « à l’intérieur » des réseaux télécom

L’explosion de la demande en intelligence artificielle ne se limite pas à la transformation des centres de données : elle pousse également la computation à se rapprocher des utilisateurs, en sortant du cœur du réseau. Dans cette compétition pour réduire la latence — et pour garantir la souveraineté des données — chaque kilomètre de fibre optique compte. C’est pourquoi l’annonce provenant de Barcelone par Submer, fournisseur d’infrastructures pour l’IA, ne se résume pas à un simple titre corporatif : elle répond à une pièce que de nombreux acteurs tentaient d’insérer de force dans leur stratégie. Submer a annoncé son acquisition de Radian Arc Operations Pty Ltd, un fournisseur de plateforme d’infrastructure en tant que service (IaaS) destinée à déployer des

OVHcloud révolutionne la gestion des applications avec son nouveau service Managed Rancher

OVHcloud renouvelle ses serveurs bare metal en 2026 avec AMD : plus de cœurs, DDR5 et focus sur l’efficacité

Alors que les entreprises doivent traiter des volumes de données inédits, exécuter des charges de travail de plus en plus hétérogènes et, simultanément, maîtriser les coûts et l’empreinte environnementale, le serveur dédié reprend toute sa place. Dans cette optique, OVHcloud a lancé sa nouvelle gamme Bare Metal 2026, une famille de serveurs dédiés conçus sur les processeurs les plus récents AMD Ryzen et AMD EPYC, adaptée aussi bien à l’hébergement Web et à la virtualisation légère qu’à l’analyse à grande échelle, HPC et déploiements liés à l’Intelligence Artificielle (IA). Se présentant comme le leader européen du cloud, OVHcloud aborde cette refonte comme une réponse concrète à la réalité opérationnelle : augmentation du parallélisme, besoins accrus en mémoire et stockage rapide,

Ultra Ethernet : même câble, une autre ligue pour les réseaux d'IA dans les centres de données

Ultra Ethernet : même câble, une autre ligue pour les réseaux d’IA dans les centres de données

Depuis des années, Ethernet est devenu le “langage commun” des centres de données : économique, omniprésent, interopérable, avec un écosystème massif de commutateurs, NICs, optiques et outils. Cependant, l’explosion des clusters d’Intelligence Artificielle (IA) et de HPC a mis en évidence une réalité inconfortable : dans les déploiements comportant des dizaines de milliers d’accélérateurs, le goulet d’étranglement n’est plus toujours la GPU, mais le réseau qui relie le tout. Le problème ne se limite pas à “plus de bande passante”. Dans les clusters modernes, le trafic est-ouest (entre les nœuds) est massif, irrégulier, et extrêmement sensible à la latence et aux micro-coupures. Dans ce contexte, plusieurs solutions qui ont tenté de “transformer Ethernet en un réseau à faible latence” héritent

SK hynix marque une étape avec la première NAND QLC de 321 couches : l'avenir du stockage pour l'ère de l'IA

L’IA exerce également une pression sur la mémoire NOR : l’autre goulot d’étranglement de 2026

Depuis plusieurs années, lorsque l’on évoquait une pénurie de mémoire, le débat tournait principalement autour de la DRAM et de la NAND. Cependant, en 2026, l’attention se déplace vers une composante moins médiatisée mais essentielle dans tout système moderne : la mémoire NOR flash. Celle-ci stocke le microprogramme (firmware), les séquences de démarrage et le code critique pour assurer la fiabilité du lancement de serveurs, accélérateurs, contrôleurs et cartes réseau. La pression ne provient pas d’un seul facteur, mais d’un cocktail bien connu dans le secteur : un hype exponentiel autour de l’infrastructure pour l’Intelligence Artificielle, la réorganisation des capacités de production vers des produits plus rentables, et une industrie opérant encore avec des marges étroites pour absorber les pics

QNAP lance myQNAPcloud One : un cloud unifié pour les sauvegardes NAS et le stockage S3

QNAP lance myQNAPcloud One : un cloud unifié pour les sauvegardes NAS et le stockage S3

Le stockage dans le cloud promet depuis des années une simplicité inattendue, mais en pratique, de nombreux départements IT ont découvert la petite ligne derrière : abonnements fragmentés, factures difficiles à prévoir et décisions d’architecture influencées par les coûts de transfert ou le nombre d’appels API. Dans ce contexte, QNAP a annoncé le lancement officiel de myQNAPcloud One, un service par abonnement visant à « regrouper » deux besoins généralement gérés séparément : les sauvegardes de NAS et le stockage d’objets compatible S3. La proposition est simple : une capacité unique souscritible et répartie entre myQNAPcloud Storage (orienté sauvegardes) et myQNAPcloud Object (pour le stockage d’objets). QNAP explique ce mouvement comme une réponse à une tendance devenue norme dans de nombreuses organisations

Avancées en téléportation quantique de données : Les réseaux de communication du futur

HetCCL : la pièce manquante pour entraîner des modèles avec des GPU NVIDIA et AMD dans le même cluster

La course à la formation de modèles de langage de plus en plus grands rencontre un problème moins visible que la taille des paramètres ou la qualité des données : la logistique du matériel informatique. En pratique, déployer une infrastructure de machine learning à grande échelle ne consiste plus seulement à “acheter plus de GPU”, mais aussi à les obtenir, à les intégrer et à faire en sorte qu’ils travaillent ensemble sans transformer le système en un casse-tête de compatibilités. C’est là qu’intervient HetCCL, une nouvelle bibliothèque de communication collective présentée par une équipe de chercheurs affiliée à l’Université nationale de Séoul et à Samsung Research. Sa proposition cible un goulet d’étranglement précis : la difficulté d’utiliser efficacement et en

Submer achète Radian Arc et renforce la course au cloud GPU "à l'intérieur" des réseaux télécom

Submer achète Radian Arc et renforce la course au cloud GPU « à l’intérieur » des réseaux télécom

L’explosion de la demande en intelligence artificielle ne se limite pas à la transformation des centres de données : elle pousse également la computation à se rapprocher des utilisateurs, en sortant du cœur du réseau. Dans cette compétition pour réduire la latence — et pour garantir la souveraineté des données — chaque kilomètre de fibre optique compte. C’est pourquoi l’annonce provenant de Barcelone par Submer, fournisseur d’infrastructures pour l’IA, ne se résume pas à un simple titre corporatif : elle répond à une pièce que de nombreux acteurs tentaient d’insérer de force dans leur stratégie. Submer a annoncé son acquisition de Radian Arc Operations Pty Ltd, un fournisseur de plateforme d’infrastructure en tant que service (IaaS) destinée à déployer des

OVHcloud révolutionne la gestion des applications avec son nouveau service Managed Rancher

OVHcloud renouvelle ses serveurs bare metal en 2026 avec AMD : plus de cœurs, DDR5 et focus sur l’efficacité

Alors que les entreprises doivent traiter des volumes de données inédits, exécuter des charges de travail de plus en plus hétérogènes et, simultanément, maîtriser les coûts et l’empreinte environnementale, le serveur dédié reprend toute sa place. Dans cette optique, OVHcloud a lancé sa nouvelle gamme Bare Metal 2026, une famille de serveurs dédiés conçus sur les processeurs les plus récents AMD Ryzen et AMD EPYC, adaptée aussi bien à l’hébergement Web et à la virtualisation légère qu’à l’analyse à grande échelle, HPC et déploiements liés à l’Intelligence Artificielle (IA). Se présentant comme le leader européen du cloud, OVHcloud aborde cette refonte comme une réponse concrète à la réalité opérationnelle : augmentation du parallélisme, besoins accrus en mémoire et stockage rapide,

Ultra Ethernet : même câble, une autre ligue pour les réseaux d'IA dans les centres de données

Ultra Ethernet : même câble, une autre ligue pour les réseaux d’IA dans les centres de données

Depuis des années, Ethernet est devenu le “langage commun” des centres de données : économique, omniprésent, interopérable, avec un écosystème massif de commutateurs, NICs, optiques et outils. Cependant, l’explosion des clusters d’Intelligence Artificielle (IA) et de HPC a mis en évidence une réalité inconfortable : dans les déploiements comportant des dizaines de milliers d’accélérateurs, le goulet d’étranglement n’est plus toujours la GPU, mais le réseau qui relie le tout. Le problème ne se limite pas à “plus de bande passante”. Dans les clusters modernes, le trafic est-ouest (entre les nœuds) est massif, irrégulier, et extrêmement sensible à la latence et aux micro-coupures. Dans ce contexte, plusieurs solutions qui ont tenté de “transformer Ethernet en un réseau à faible latence” héritent

SK hynix marque une étape avec la première NAND QLC de 321 couches : l'avenir du stockage pour l'ère de l'IA

L’IA exerce également une pression sur la mémoire NOR : l’autre goulot d’étranglement de 2026

Depuis plusieurs années, lorsque l’on évoquait une pénurie de mémoire, le débat tournait principalement autour de la DRAM et de la NAND. Cependant, en 2026, l’attention se déplace vers une composante moins médiatisée mais essentielle dans tout système moderne : la mémoire NOR flash. Celle-ci stocke le microprogramme (firmware), les séquences de démarrage et le code critique pour assurer la fiabilité du lancement de serveurs, accélérateurs, contrôleurs et cartes réseau. La pression ne provient pas d’un seul facteur, mais d’un cocktail bien connu dans le secteur : un hype exponentiel autour de l’infrastructure pour l’Intelligence Artificielle, la réorganisation des capacités de production vers des produits plus rentables, et une industrie opérant encore avec des marges étroites pour absorber les pics

QNAP lance myQNAPcloud One : un cloud unifié pour les sauvegardes NAS et le stockage S3

QNAP lance myQNAPcloud One : un cloud unifié pour les sauvegardes NAS et le stockage S3

Le stockage dans le cloud promet depuis des années une simplicité inattendue, mais en pratique, de nombreux départements IT ont découvert la petite ligne derrière : abonnements fragmentés, factures difficiles à prévoir et décisions d’architecture influencées par les coûts de transfert ou le nombre d’appels API. Dans ce contexte, QNAP a annoncé le lancement officiel de myQNAPcloud One, un service par abonnement visant à « regrouper » deux besoins généralement gérés séparément : les sauvegardes de NAS et le stockage d’objets compatible S3. La proposition est simple : une capacité unique souscritible et répartie entre myQNAPcloud Storage (orienté sauvegardes) et myQNAPcloud Object (pour le stockage d’objets). QNAP explique ce mouvement comme une réponse à une tendance devenue norme dans de nombreuses organisations