Catégorie : Cloud

OVH Cost Manager 2.2.2 améliore le contrôle des dépenses et réduit Docker

OVH Cost Manager 2.2.2 améliore le contrôle des dépenses et réduit Docker

Suivre les dépenses dans le cloud est devenu une nécessité concrète pour de nombreuses entreprises, pas uniquement pour les grandes organisations disposant d’équipes FinOps. Dans ce contexte, de petits outils ouverts, faciles à déployer et centrés sur l’usage commencent à prendre du poids face à des plateformes plus complexes. C’est là qu’intervient OVH Cost Manager, un projet open source conçu pour analyser la facturation d’OVHcloud via un tableau de bord web. La dernière version, 2.2.2, vient d’être publiée, apportant des améliorations notamment pour le déploiement, l’import de données et la gestion de l’utilisation de l’API. Maintenu par Michel-Marie Maudet et publié sur GitHub sous licence MIT, ce projet n’est pas un produit officiel d’OVHcloud, mais un outil communautaire cherchant à

Nanya entre en la mémoire pour l'IA en cours et compte déjà plus de 10 clients

Nanya entre en la mémoire pour l’IA en cours et compte déjà plus de 10 clients

Nanya Technology souhaite évoluer d’une simple image de fabricant taiwanais de DRAM traditionnel pour prendre une place significative dans l’un des segments les plus dynamiques du secteur des semi-conducteurs : la mémoire personnalisée pour l’Intelligence Artificielle. D’après les informations publiées par DigiTimes, la société commence à générer des revenus grâce à sa solution Ultra Wide I/O, ou UWIO, et collabore avec plus d’une dizaine de clients à l’échelle mondiale, dont plusieurs en phase de définition de spécifications ou de pilotes de production. Ce développement intervient à un moment délicat pour le marché de la mémoire. La demande en HBM pour l’IA reste très forte, suscitant une pression constante pour explorer des alternatives plus abordables, moins dépendantes des emballages extrêmes, et

Jensen Huang revendique le rôle d'Elon Musk dans la création d'OpenAI et le pari précoce sur NVIDIA

Macrohard : voici l’IA avec laquelle Musk veut automatiser le logiciel

Elon Musk redéfinit une nouvelle fois le paysage de l’Intelligence Artificielle avec l’annonce d’un projet qui mêle provocation, ambition et stratégie industrielle. Nommé Macrohard, un nom qui joue clairement sur celui de Microsoft, ce projet a été présenté comme une initiative conjointe de Tesla et xAI, visant à concevoir un agent capable d’effectuer des tâches informatiques complexes comme le ferait un humain assis devant un ordinateur. L’objectif ne se limite pas simplement à générer du texte, du code ou des réponses à des questions, mais consiste à observer ce qui s’affiche à l’écran, comprendre le contexte, et exécuter des actions dans des applications et systèmes réels. Pour un media technologique, ce qui compte le plus n’est pas tant le nom

Samsung lance la production de masse de la V-NAND V9 QLC, révolutionnant l'industrie des SSD

Samsung et NVIDIA explorent l’avenir de la NAND avec l’aide de l’IA

La course à l’infrastructure qui soutiendra la prochaine vague d’Intelligence Artificielle ne se limite plus aux GPU ou à la mémoire HBM. Elle commence également à se jouer dans le domaine du stockage, où Samsung et NVIDIA font un pas intéressant. Bien qu’il n’y ait pas eu d’annonce commerciale classique ni une volonté de NVIDIA de produire de la mémoire NAND, une collaboration de recherche concrète existe entre ces deux entreprises, avec Georgia Tech, pour accélérer le développement de mémoires NAND à matériaux ferroélectriques à l’aide de modèles d’IA et de calculs accélérés. Ce nuance est essentielle car elle évite de tomber dans les titres sensationnels. Il est aujourd’hui fiable d’affirmer que Samsung travaille sur de nouvelles architectures de NAND

YMTC entre dans PCIe 5.0 avec son premier SSD commercial en pleine pénurie

YMTC entre dans PCIe 5.0 avec son premier SSD commercial en pleine pénurie

Le fabricant chinois Yangtze Memory Technologies Co. (YMTC) élargi son catalogue avec son premier SSD professionnel doté d’une interface PCIe 5.0. Nommé PC550, il est proposé en formats M.2 2242 et M.2 2280, avec des capacités de 512 Go, 1 To et 2 To. Destiné principalement à des équipements professionnels et à la nouvelle génération de PC dédiée à l’intelligence artificielle, ce SSD offre une performance remarquable : jusqu’à 10 500 Mo/s en lecture séquentielle et 10 000 Mo/s en écriture pour la version 2 To, avec un support pour PCIe 5.0 x4 et NVMe 2.0. Ce lancement suscite deux types d’intérêt. Tout d’abord, d’un point de vue technologique, il confirme que YMTC a franchi les étapes pour commercialiser des

AWS amènera Cerebras à Bedrock pour accélérer l'inférence IA

AWS amènera Cerebras à Bedrock pour accélérer l’inférence IA

Amazon Web Services souhaite renforcer l’un des aspects les plus sensibles de la course actuelle à l’intelligence artificielle : la rapidité de l’inférence. AWS et Cerebras ont annoncé une collaboration dans laquelle la plateforme cloud d’Amazon déployera des systèmes Cerebras CS-3 dans ses centres de données, les rendant accessibles aux clients via Amazon Bedrock. Selon les deux entreprises, ce service sera disponible dans les prochains mois et, à partir de 2026, permettra également d’exécuter des modèles ouverts de référence ainsi que des modèles Amazon Nova sur du matériel Cerebras. Cette annonce est importante car il ne s’agit pas simplement d’ajouter une nouvelle option matérielle au catalogue AWS, mais de tester une architecture différente pour servir des modèles génératifs à très

OVH Cost Manager 2.2.2 améliore le contrôle des dépenses et réduit Docker

OVH Cost Manager 2.2.2 améliore le contrôle des dépenses et réduit Docker

Suivre les dépenses dans le cloud est devenu une nécessité concrète pour de nombreuses entreprises, pas uniquement pour les grandes organisations disposant d’équipes FinOps. Dans ce contexte, de petits outils ouverts, faciles à déployer et centrés sur l’usage commencent à prendre du poids face à des plateformes plus complexes. C’est là qu’intervient OVH Cost Manager, un projet open source conçu pour analyser la facturation d’OVHcloud via un tableau de bord web. La dernière version, 2.2.2, vient d’être publiée, apportant des améliorations notamment pour le déploiement, l’import de données et la gestion de l’utilisation de l’API. Maintenu par Michel-Marie Maudet et publié sur GitHub sous licence MIT, ce projet n’est pas un produit officiel d’OVHcloud, mais un outil communautaire cherchant à

Nanya entre en la mémoire pour l'IA en cours et compte déjà plus de 10 clients

Nanya entre en la mémoire pour l’IA en cours et compte déjà plus de 10 clients

Nanya Technology souhaite évoluer d’une simple image de fabricant taiwanais de DRAM traditionnel pour prendre une place significative dans l’un des segments les plus dynamiques du secteur des semi-conducteurs : la mémoire personnalisée pour l’Intelligence Artificielle. D’après les informations publiées par DigiTimes, la société commence à générer des revenus grâce à sa solution Ultra Wide I/O, ou UWIO, et collabore avec plus d’une dizaine de clients à l’échelle mondiale, dont plusieurs en phase de définition de spécifications ou de pilotes de production. Ce développement intervient à un moment délicat pour le marché de la mémoire. La demande en HBM pour l’IA reste très forte, suscitant une pression constante pour explorer des alternatives plus abordables, moins dépendantes des emballages extrêmes, et

Jensen Huang revendique le rôle d'Elon Musk dans la création d'OpenAI et le pari précoce sur NVIDIA

Macrohard : voici l’IA avec laquelle Musk veut automatiser le logiciel

Elon Musk redéfinit une nouvelle fois le paysage de l’Intelligence Artificielle avec l’annonce d’un projet qui mêle provocation, ambition et stratégie industrielle. Nommé Macrohard, un nom qui joue clairement sur celui de Microsoft, ce projet a été présenté comme une initiative conjointe de Tesla et xAI, visant à concevoir un agent capable d’effectuer des tâches informatiques complexes comme le ferait un humain assis devant un ordinateur. L’objectif ne se limite pas simplement à générer du texte, du code ou des réponses à des questions, mais consiste à observer ce qui s’affiche à l’écran, comprendre le contexte, et exécuter des actions dans des applications et systèmes réels. Pour un media technologique, ce qui compte le plus n’est pas tant le nom

Samsung lance la production de masse de la V-NAND V9 QLC, révolutionnant l'industrie des SSD

Samsung et NVIDIA explorent l’avenir de la NAND avec l’aide de l’IA

La course à l’infrastructure qui soutiendra la prochaine vague d’Intelligence Artificielle ne se limite plus aux GPU ou à la mémoire HBM. Elle commence également à se jouer dans le domaine du stockage, où Samsung et NVIDIA font un pas intéressant. Bien qu’il n’y ait pas eu d’annonce commerciale classique ni une volonté de NVIDIA de produire de la mémoire NAND, une collaboration de recherche concrète existe entre ces deux entreprises, avec Georgia Tech, pour accélérer le développement de mémoires NAND à matériaux ferroélectriques à l’aide de modèles d’IA et de calculs accélérés. Ce nuance est essentielle car elle évite de tomber dans les titres sensationnels. Il est aujourd’hui fiable d’affirmer que Samsung travaille sur de nouvelles architectures de NAND

YMTC entre dans PCIe 5.0 avec son premier SSD commercial en pleine pénurie

YMTC entre dans PCIe 5.0 avec son premier SSD commercial en pleine pénurie

Le fabricant chinois Yangtze Memory Technologies Co. (YMTC) élargi son catalogue avec son premier SSD professionnel doté d’une interface PCIe 5.0. Nommé PC550, il est proposé en formats M.2 2242 et M.2 2280, avec des capacités de 512 Go, 1 To et 2 To. Destiné principalement à des équipements professionnels et à la nouvelle génération de PC dédiée à l’intelligence artificielle, ce SSD offre une performance remarquable : jusqu’à 10 500 Mo/s en lecture séquentielle et 10 000 Mo/s en écriture pour la version 2 To, avec un support pour PCIe 5.0 x4 et NVMe 2.0. Ce lancement suscite deux types d’intérêt. Tout d’abord, d’un point de vue technologique, il confirme que YMTC a franchi les étapes pour commercialiser des

AWS amènera Cerebras à Bedrock pour accélérer l'inférence IA

AWS amènera Cerebras à Bedrock pour accélérer l’inférence IA

Amazon Web Services souhaite renforcer l’un des aspects les plus sensibles de la course actuelle à l’intelligence artificielle : la rapidité de l’inférence. AWS et Cerebras ont annoncé une collaboration dans laquelle la plateforme cloud d’Amazon déployera des systèmes Cerebras CS-3 dans ses centres de données, les rendant accessibles aux clients via Amazon Bedrock. Selon les deux entreprises, ce service sera disponible dans les prochains mois et, à partir de 2026, permettra également d’exécuter des modèles ouverts de référence ainsi que des modèles Amazon Nova sur du matériel Cerebras. Cette annonce est importante car il ne s’agit pas simplement d’ajouter une nouvelle option matérielle au catalogue AWS, mais de tester une architecture différente pour servir des modèles génératifs à très