Catégorie : Cloud

UltraRAM : la mémoire qui promet de combiner stockage et RAM en une seule puce

Mémoire et stockage, jusqu’à la limite : la vague d’IA vide la « grange » de DRAM, NAND, SSD et HDD et fait grimper les prix

L’industrie de la mémoire traverse une situation inédite : DRAM, NAND Flash, SSD et disques durs se trouvent en baisse simultanée, atteignant des niveaux historiquement faibles. Ce qui était redouté comme un cycle haussier prolongé s’est finalement traduit par une pénurie généralisée, déjà perceptible à travers la contraction des contrats et la hausse des prix de vente immédiate, menaçant également de se répercuter sur les lignes de produits et les budgets des ménages et PME dans les semaines à venir. La confirmation la plus flagrante vient de Adata, acteur majeur mondial dans la fabrication de modules mémoire. Son président, Simon Chen, a résumé la situation avec cette image claire : le « grenier » des fabricants est pratiquement vide, et les fournisseurs

Tenable Research révèle que les organisations peinent à suivre le rythme des défis de sécurité dans le cloud et l'IA

Tenable Research révèle que les organisations peinent à suivre le rythme des défis de sécurité dans le cloud et l’IA

Le cabinet Tenable Research a publié son rapport « L’état de la sécurité dans le cloud et l’IA d’ici 2025 », révélant que l’évolution rapide des systèmes hybrides, multicloud et d’intelligence artificielle dépasse les stratégies de sécurité cloud, créant ainsi de nouvelles couches de complexité. Selon cette étude, 34 % des organisations ayant des charges de travail en IA ont déjà subi des violations liées à cette technologie, et 14 % restent incertaines. Des environnements complexes dominent, mais la sécurité ne suit pas le rythme L’étude montre que 82 % des organisations opèrent actuellement dans des entours hybrides, combinant infrastructures locales et cloud, tandis que 63 % font appel à plusieurs fournisseurs cloud. De plus, plus de la moitié des

Arcep promeut le partage des infrastructures réseau mobile

L’Autorité de régulation des communications électroniques et des postes (Arcep) a récemment entériné un nouveau contrat d’itinérance entre Free Mobile et Orange. Enregistré sous le nom de « Contrat d’itinérance sur réseaux en fin de vie d’Orange France », cet accord est étalé sur une période allant du 1er janvier 2026 au 31 décembre 2028. Il concerne la fourniture d’une prestation d’itinérance pour les réseaux 2G/3G d’Orange et s’accompagne d’une stratégie de transition vers les technologies 4G et 5G par Free Mobile. D’après le contrat, Free Mobile envisage de remplacer progressivement son réseau 3G par des technologies plus avancées, en exploitant ainsi les ondes fréquentielles libérées. Le contexte actuel démontre un délaissement des investissements dans les technologies vieillissantes au profit

Trois sur quatre projets d'IA agentique présentent un risque grave pour la sécurité

Trois sur quatre projets d’IA agentique présentent un risque grave pour la sécurité

Un informe récent de Palo Alto Networks, leader mondial en cybersécurité, met en garde contre le fait que 75% des projets d’intelligence artificielle agentique en cours de développement en Europe présentent un risque important pour la sécurité des organisations. Le problème ne réside pas dans la technologie elle-même, mais dans la manque de gouvernance, de contrôle et de supervision appropriés. Basé sur plus de 3 000 interviews avec des dirigeants de haut niveau (C-suite) d’entreprises européennes, l’étude montre que de nombreuses initiatives d’IA sont mises en œuvre sans stratégie claire, sans objectifs précis et sans critères de sécurité établis, ce qui témoigne d’une faible implication des conseils d’administration. Selon l’entreprise, si des mesures urgentes ne sont pas prises par la

Red Hat AI 3 apporte l'inférence distribuée en production : une plateforme ouverte pour les agents, Kubernetes et tout accélérateur

Red Hat AI 3 apporte l’inférence distribuée en production : une plateforme ouverte pour les agents, Kubernetes et tout accélérateur

Red Hat a annoncé Red Hat AI 3, une évolution majeure de sa plateforme d’entreprise en intelligence artificielle qui intègre Red Hat AI Inference Server, RHEL AI et OpenShift AI. L’objectif est de répondre au principal défi de 2025 : opérationnaliser l’inférence à grande échelle (la phase du “faire”) et passer du prototype à la production sans devoir reconstruire l’infrastructure. La proposition repose sur trois idées clés : inférence distribuée native en Kubernetes (llm-d), une plateforme unifiée (MaaS interne, AI Hub, Gen AI Studio) et les fondations pour une IA agentique intégrant des API et des standards ouverts. Ce mouvement intervient alors que le marché évolue du simple entraînement vers une inférence massive en temps réel et des agents autonomes.

NetApp présente AFX et AI Data Engine : sa plateforme de données “prête pour l'IA” avec montée en charge par nœuds et intégration native avec NVIDIA et Azure

NetApp présente AFX et AI Data Engine : sa plateforme de données “prête pour l’IA” avec montée en charge par nœuds et intégration native avec NVIDIA et Azure

NetApp a annoncé une gamme de produits renforçant sa plateforme de données d’entreprise pour l’intelligence artificielle, avec pour objectif de passer de projets pilotes à des applications actives en production. Cette nouveauté se déploie sur deux axes principaux : NetApp AFX, un système all-flash à architecture déchargée basé sur ONTAP, et NetApp AI Data Engine (AIDE), un service unifié qui connecte, gouverne et accélère les données pour l’IA via une unique plateforme de contrôle. Ces solutions visent à accélérer le RAG (Recherche, Analyse, Génération) et l’inférence dans des environnements hybrides et multicloud, accessibles en achat direct ou par abonnement Keystone STaaS. AFX : stockage all-flash déchargé pour des “usines d’IA” NetApp AFX dissocie performance et capacité pour permettre à chaque

UltraRAM : la mémoire qui promet de combiner stockage et RAM en une seule puce

Mémoire et stockage, jusqu’à la limite : la vague d’IA vide la « grange » de DRAM, NAND, SSD et HDD et fait grimper les prix

L’industrie de la mémoire traverse une situation inédite : DRAM, NAND Flash, SSD et disques durs se trouvent en baisse simultanée, atteignant des niveaux historiquement faibles. Ce qui était redouté comme un cycle haussier prolongé s’est finalement traduit par une pénurie généralisée, déjà perceptible à travers la contraction des contrats et la hausse des prix de vente immédiate, menaçant également de se répercuter sur les lignes de produits et les budgets des ménages et PME dans les semaines à venir. La confirmation la plus flagrante vient de Adata, acteur majeur mondial dans la fabrication de modules mémoire. Son président, Simon Chen, a résumé la situation avec cette image claire : le « grenier » des fabricants est pratiquement vide, et les fournisseurs

Tenable Research révèle que les organisations peinent à suivre le rythme des défis de sécurité dans le cloud et l'IA

Tenable Research révèle que les organisations peinent à suivre le rythme des défis de sécurité dans le cloud et l’IA

Le cabinet Tenable Research a publié son rapport « L’état de la sécurité dans le cloud et l’IA d’ici 2025 », révélant que l’évolution rapide des systèmes hybrides, multicloud et d’intelligence artificielle dépasse les stratégies de sécurité cloud, créant ainsi de nouvelles couches de complexité. Selon cette étude, 34 % des organisations ayant des charges de travail en IA ont déjà subi des violations liées à cette technologie, et 14 % restent incertaines. Des environnements complexes dominent, mais la sécurité ne suit pas le rythme L’étude montre que 82 % des organisations opèrent actuellement dans des entours hybrides, combinant infrastructures locales et cloud, tandis que 63 % font appel à plusieurs fournisseurs cloud. De plus, plus de la moitié des

Arcep promeut le partage des infrastructures réseau mobile

L’Autorité de régulation des communications électroniques et des postes (Arcep) a récemment entériné un nouveau contrat d’itinérance entre Free Mobile et Orange. Enregistré sous le nom de « Contrat d’itinérance sur réseaux en fin de vie d’Orange France », cet accord est étalé sur une période allant du 1er janvier 2026 au 31 décembre 2028. Il concerne la fourniture d’une prestation d’itinérance pour les réseaux 2G/3G d’Orange et s’accompagne d’une stratégie de transition vers les technologies 4G et 5G par Free Mobile. D’après le contrat, Free Mobile envisage de remplacer progressivement son réseau 3G par des technologies plus avancées, en exploitant ainsi les ondes fréquentielles libérées. Le contexte actuel démontre un délaissement des investissements dans les technologies vieillissantes au profit

Trois sur quatre projets d'IA agentique présentent un risque grave pour la sécurité

Trois sur quatre projets d’IA agentique présentent un risque grave pour la sécurité

Un informe récent de Palo Alto Networks, leader mondial en cybersécurité, met en garde contre le fait que 75% des projets d’intelligence artificielle agentique en cours de développement en Europe présentent un risque important pour la sécurité des organisations. Le problème ne réside pas dans la technologie elle-même, mais dans la manque de gouvernance, de contrôle et de supervision appropriés. Basé sur plus de 3 000 interviews avec des dirigeants de haut niveau (C-suite) d’entreprises européennes, l’étude montre que de nombreuses initiatives d’IA sont mises en œuvre sans stratégie claire, sans objectifs précis et sans critères de sécurité établis, ce qui témoigne d’une faible implication des conseils d’administration. Selon l’entreprise, si des mesures urgentes ne sont pas prises par la

Red Hat AI 3 apporte l'inférence distribuée en production : une plateforme ouverte pour les agents, Kubernetes et tout accélérateur

Red Hat AI 3 apporte l’inférence distribuée en production : une plateforme ouverte pour les agents, Kubernetes et tout accélérateur

Red Hat a annoncé Red Hat AI 3, une évolution majeure de sa plateforme d’entreprise en intelligence artificielle qui intègre Red Hat AI Inference Server, RHEL AI et OpenShift AI. L’objectif est de répondre au principal défi de 2025 : opérationnaliser l’inférence à grande échelle (la phase du “faire”) et passer du prototype à la production sans devoir reconstruire l’infrastructure. La proposition repose sur trois idées clés : inférence distribuée native en Kubernetes (llm-d), une plateforme unifiée (MaaS interne, AI Hub, Gen AI Studio) et les fondations pour une IA agentique intégrant des API et des standards ouverts. Ce mouvement intervient alors que le marché évolue du simple entraînement vers une inférence massive en temps réel et des agents autonomes.

NetApp présente AFX et AI Data Engine : sa plateforme de données “prête pour l'IA” avec montée en charge par nœuds et intégration native avec NVIDIA et Azure

NetApp présente AFX et AI Data Engine : sa plateforme de données “prête pour l’IA” avec montée en charge par nœuds et intégration native avec NVIDIA et Azure

NetApp a annoncé une gamme de produits renforçant sa plateforme de données d’entreprise pour l’intelligence artificielle, avec pour objectif de passer de projets pilotes à des applications actives en production. Cette nouveauté se déploie sur deux axes principaux : NetApp AFX, un système all-flash à architecture déchargée basé sur ONTAP, et NetApp AI Data Engine (AIDE), un service unifié qui connecte, gouverne et accélère les données pour l’IA via une unique plateforme de contrôle. Ces solutions visent à accélérer le RAG (Recherche, Analyse, Génération) et l’inférence dans des environnements hybrides et multicloud, accessibles en achat direct ou par abonnement Keystone STaaS. AFX : stockage all-flash déchargé pour des “usines d’IA” NetApp AFX dissocie performance et capacité pour permettre à chaque