Catégorie : Cloud

Fortinet renforce son SecOps avec FortiSOC, une IA agissante et un contrôle accru des endpoints

Fortinet renforce FortiGate G pour protéger l’IA dans les centres de données et à la périphérie

Fortinet a élargi sa gamme FortiGate G avec deux nouveaux modèles, le FortiGate 3500G et le FortiGate 400G, conçus pour répondre aux besoins de protection des infrastructures d’entreprise en pleine croissance autour de l’Intelligence Artificielle, du trafic chiffré et des architectures de plus en plus réparties. La société positionne ces appareils dans deux contextes distincts : le 3500G destiné aux centres de données à haute capacité, et le 400G pour le périmètre de l’entreprise, où de nombreuses organisations ont besoin de plus de performance sans repenser entièrement leur réseau. Ce lancement intervient à un moment où la sécurité réseau connaît une évolution majeure. Il ne suffit plus d’inspecter le trafic nord-sud, celui qui entre et sort du périmètre traditionnel. Il

IBM X-Force 2026 : les attaquants ne changent pas le scénario, ils l'accélèrent avec l'intelligence artificielle

IBM propose à Think 2026 un nouveau modèle opérationnel pour l’IA d’entreprise

IBM a profité de sa conférence Think 2026 pour annoncer une extension de son portefeuille dédié à l’Intelligence Artificielle et au cloud hybride, en s’adressant particulièrement aux grandes entreprises : déployer davantage de modèles ne sera pas suffisant si aucune méthode structurée n’est en place pour créer, coordonner, gouverner et sécuriser les agents d’IA en production. L’entreprise évoque un « nouveau modèle opérationnel » pour l’organisation axée sur les agents, basé sur quatre piliers essentiels : agents, données, automatisation et infrastructure hybride. Derrière cette annonce se cache une lecture claire du marché : de nombreuses organisations ont investi dans l’Intelligence Artificielle, mais peinent encore à transformer ces projets en résultats durables, surtout lorsque les pilotes traitent des données sensibles, des

Skymizer promet de porter des modèles de 700 milliards de paramètres sur une seule carte PCIe

Skymizer promet de porter des modèles de 700 milliards de paramètres sur une seule carte PCIe

Skymizer a présenté HTX301, son premier composant de référence basé sur la plateforme HyperThought, avec une promesse très attrayante pour le marché de l’inférence en intelligence artificielle : exécuter des modèles de langage jusqu’à 700 milliards de paramètres localement, sur une seule carte PCIe équipée de six puces HTX301, avec 384 Go de mémoire et une consommation d’environ 240 W par carte. Cette solution vise directement l’un des grands défis de l’IA en entreprise. Beaucoup d’entreprises souhaitent utiliser de grands modèles sans transmettre de données sensibles à des services externes, mais déployer une inférence avancée localement nécessite souvent des clusters de GPU, des interconnexions coûteuses, une réfrigération complexe et du matériel spécialisé. Skymizer affirme que son architecture peut simplifier cette

Intel et AMD scellent une trêve technologique : FRED, AVX10 et APX, les armes conjointes de x86 face à Arm et Qualcomm

AMD et Intel préparent ACE pour accélérer l’intelligence artificielle sur x86

AMD et Intel ont franchi une étape peu courante dans une industrie habituée à la compétition à chaque nouvelle génération de processeurs : ils collaborent sur une extension commune visant à accélérer les charges de travail en Intelligence Artificielle (IA) au sein de l’architecture x86. Cette initiative, nommée ACE (Extensions de Calcul IA), cherche à faire de l’accélération matricielle une capacité standard et partagée pour les futurs chips x86. Ce projet s’inscrit dans le cadre du groupe d’experts x86 Ecosystem Advisory Group, créé par AMD, Intel et d’autres partenaires pour renforcer la compatibilité et l’évolution de l’écosystème x86 face à la montée en puissance d’Arm, des accélérateurs spécialisés et du développement de l’IA. Le livre blanc technique d’ACE, daté du

Lattice achète AMI pour 1,65 milliard pour contrôler des serveurs d'IA

Lattice achète AMI pour 1,65 milliard pour contrôler des serveurs d’IA

Lattice Semiconductor a conclu un accord définitif pour l’acquisition d’AMI pour 1,65 milliard de dollars, une opération qui associe les FPGA à faible consommation de Lattice à l’une des entreprises les plus reconnues dans le domaine du firmware plateforme et de la gestion d’infrastructures pour serveurs, cloud et Intelligence Artificielle. La transaction, annoncée le 4 mai 2026, devrait être finalisée au troisième trimestre de cette année, sous réserve des autorisations réglementaires et du respect des conditions habituelles de clôture. Ce mouvement revêt une importance particulière car il cible une couche moins visible, mais de plus en plus critique, des centres de données : la gestion de la plateforme. Dans les serveurs modernes, il ne suffit plus d’avoir des CPU, GPU,

AMD et Cohere élargissent leur partenariat pour déployer l'IA d'entreprise et « souveraine » sur des infrastructures avec GPUs Instinct

AMD et OpenAI lancent MRC, le protocole visant à éviter les goulets d’étranglement dans l’IA

AMD, OpenAI, Microsoft et d’autres grands acteurs de l’industrie ont présenté MRC, acronyme de Multipath Reliable Connection (connexion fiable multipath), un nouveau protocole réseau conçu pour améliorer la performance et la résilience des grands clusters d’entraînement en intelligence artificielle. La spécification a été publiée via l’Open Compute Project dans le but de faciliter son adoption par le secteur, au-delà des déploiements internes des entreprises impliquées dans son développement. Certains pourraient penser que cette annonce est très technique, mais elle aborde l’une des problématiques majeures de l’IA moderne. Former des modèles avancés ne se limite plus à l’ajout de GPUs. À grande échelle, la véritable performance dépend aussi de la qualité du réseau qui connecte ces accélérateurs. Si des centaines de

Fortinet renforce son SecOps avec FortiSOC, une IA agissante et un contrôle accru des endpoints

Fortinet renforce FortiGate G pour protéger l’IA dans les centres de données et à la périphérie

Fortinet a élargi sa gamme FortiGate G avec deux nouveaux modèles, le FortiGate 3500G et le FortiGate 400G, conçus pour répondre aux besoins de protection des infrastructures d’entreprise en pleine croissance autour de l’Intelligence Artificielle, du trafic chiffré et des architectures de plus en plus réparties. La société positionne ces appareils dans deux contextes distincts : le 3500G destiné aux centres de données à haute capacité, et le 400G pour le périmètre de l’entreprise, où de nombreuses organisations ont besoin de plus de performance sans repenser entièrement leur réseau. Ce lancement intervient à un moment où la sécurité réseau connaît une évolution majeure. Il ne suffit plus d’inspecter le trafic nord-sud, celui qui entre et sort du périmètre traditionnel. Il

IBM X-Force 2026 : les attaquants ne changent pas le scénario, ils l'accélèrent avec l'intelligence artificielle

IBM propose à Think 2026 un nouveau modèle opérationnel pour l’IA d’entreprise

IBM a profité de sa conférence Think 2026 pour annoncer une extension de son portefeuille dédié à l’Intelligence Artificielle et au cloud hybride, en s’adressant particulièrement aux grandes entreprises : déployer davantage de modèles ne sera pas suffisant si aucune méthode structurée n’est en place pour créer, coordonner, gouverner et sécuriser les agents d’IA en production. L’entreprise évoque un « nouveau modèle opérationnel » pour l’organisation axée sur les agents, basé sur quatre piliers essentiels : agents, données, automatisation et infrastructure hybride. Derrière cette annonce se cache une lecture claire du marché : de nombreuses organisations ont investi dans l’Intelligence Artificielle, mais peinent encore à transformer ces projets en résultats durables, surtout lorsque les pilotes traitent des données sensibles, des

Skymizer promet de porter des modèles de 700 milliards de paramètres sur une seule carte PCIe

Skymizer promet de porter des modèles de 700 milliards de paramètres sur une seule carte PCIe

Skymizer a présenté HTX301, son premier composant de référence basé sur la plateforme HyperThought, avec une promesse très attrayante pour le marché de l’inférence en intelligence artificielle : exécuter des modèles de langage jusqu’à 700 milliards de paramètres localement, sur une seule carte PCIe équipée de six puces HTX301, avec 384 Go de mémoire et une consommation d’environ 240 W par carte. Cette solution vise directement l’un des grands défis de l’IA en entreprise. Beaucoup d’entreprises souhaitent utiliser de grands modèles sans transmettre de données sensibles à des services externes, mais déployer une inférence avancée localement nécessite souvent des clusters de GPU, des interconnexions coûteuses, une réfrigération complexe et du matériel spécialisé. Skymizer affirme que son architecture peut simplifier cette

Intel et AMD scellent une trêve technologique : FRED, AVX10 et APX, les armes conjointes de x86 face à Arm et Qualcomm

AMD et Intel préparent ACE pour accélérer l’intelligence artificielle sur x86

AMD et Intel ont franchi une étape peu courante dans une industrie habituée à la compétition à chaque nouvelle génération de processeurs : ils collaborent sur une extension commune visant à accélérer les charges de travail en Intelligence Artificielle (IA) au sein de l’architecture x86. Cette initiative, nommée ACE (Extensions de Calcul IA), cherche à faire de l’accélération matricielle une capacité standard et partagée pour les futurs chips x86. Ce projet s’inscrit dans le cadre du groupe d’experts x86 Ecosystem Advisory Group, créé par AMD, Intel et d’autres partenaires pour renforcer la compatibilité et l’évolution de l’écosystème x86 face à la montée en puissance d’Arm, des accélérateurs spécialisés et du développement de l’IA. Le livre blanc technique d’ACE, daté du

Lattice achète AMI pour 1,65 milliard pour contrôler des serveurs d'IA

Lattice achète AMI pour 1,65 milliard pour contrôler des serveurs d’IA

Lattice Semiconductor a conclu un accord définitif pour l’acquisition d’AMI pour 1,65 milliard de dollars, une opération qui associe les FPGA à faible consommation de Lattice à l’une des entreprises les plus reconnues dans le domaine du firmware plateforme et de la gestion d’infrastructures pour serveurs, cloud et Intelligence Artificielle. La transaction, annoncée le 4 mai 2026, devrait être finalisée au troisième trimestre de cette année, sous réserve des autorisations réglementaires et du respect des conditions habituelles de clôture. Ce mouvement revêt une importance particulière car il cible une couche moins visible, mais de plus en plus critique, des centres de données : la gestion de la plateforme. Dans les serveurs modernes, il ne suffit plus d’avoir des CPU, GPU,

AMD et Cohere élargissent leur partenariat pour déployer l'IA d'entreprise et « souveraine » sur des infrastructures avec GPUs Instinct

AMD et OpenAI lancent MRC, le protocole visant à éviter les goulets d’étranglement dans l’IA

AMD, OpenAI, Microsoft et d’autres grands acteurs de l’industrie ont présenté MRC, acronyme de Multipath Reliable Connection (connexion fiable multipath), un nouveau protocole réseau conçu pour améliorer la performance et la résilience des grands clusters d’entraînement en intelligence artificielle. La spécification a été publiée via l’Open Compute Project dans le but de faciliter son adoption par le secteur, au-delà des déploiements internes des entreprises impliquées dans son développement. Certains pourraient penser que cette annonce est très technique, mais elle aborde l’une des problématiques majeures de l’IA moderne. Former des modèles avancés ne se limite plus à l’ajout de GPUs. À grande échelle, la véritable performance dépend aussi de la qualité du réseau qui connecte ces accélérateurs. Si des centaines de