Catégorie : Cloud

IBM X-Force 2026 : les attaquants ne changent pas le scénario, ils l'accélèrent avec l'intelligence artificielle

IBM propose à Think 2026 un nouveau modèle opérationnel pour l’IA d’entreprise

IBM a profité de sa conférence Think 2026 pour annoncer une extension de son portefeuille dédié à l’Intelligence Artificielle et au cloud hybride, en s’adressant particulièrement aux grandes entreprises : déployer davantage de modèles ne sera pas suffisant si aucune méthode structurée n’est en place pour créer, coordonner, gouverner et sécuriser les agents d’IA en production. L’entreprise évoque un « nouveau modèle opérationnel » pour l’organisation axée sur les agents, basé sur quatre piliers essentiels : agents, données, automatisation et infrastructure hybride. Derrière cette annonce se cache une lecture claire du marché : de nombreuses organisations ont investi dans l’Intelligence Artificielle, mais peinent encore à transformer ces projets en résultats durables, surtout lorsque les pilotes traitent des données sensibles, des

Skymizer promet de porter des modèles de 700 milliards de paramètres sur une seule carte PCIe

Skymizer promet de porter des modèles de 700 milliards de paramètres sur une seule carte PCIe

Skymizer a présenté HTX301, son premier composant de référence basé sur la plateforme HyperThought, avec une promesse très attrayante pour le marché de l’inférence en intelligence artificielle : exécuter des modèles de langage jusqu’à 700 milliards de paramètres localement, sur une seule carte PCIe équipée de six puces HTX301, avec 384 Go de mémoire et une consommation d’environ 240 W par carte. Cette solution vise directement l’un des grands défis de l’IA en entreprise. Beaucoup d’entreprises souhaitent utiliser de grands modèles sans transmettre de données sensibles à des services externes, mais déployer une inférence avancée localement nécessite souvent des clusters de GPU, des interconnexions coûteuses, une réfrigération complexe et du matériel spécialisé. Skymizer affirme que son architecture peut simplifier cette

Intel et AMD scellent une trêve technologique : FRED, AVX10 et APX, les armes conjointes de x86 face à Arm et Qualcomm

AMD et Intel préparent ACE pour accélérer l’intelligence artificielle sur x86

AMD et Intel ont franchi une étape peu courante dans une industrie habituée à la compétition à chaque nouvelle génération de processeurs : ils collaborent sur une extension commune visant à accélérer les charges de travail en Intelligence Artificielle (IA) au sein de l’architecture x86. Cette initiative, nommée ACE (Extensions de Calcul IA), cherche à faire de l’accélération matricielle une capacité standard et partagée pour les futurs chips x86. Ce projet s’inscrit dans le cadre du groupe d’experts x86 Ecosystem Advisory Group, créé par AMD, Intel et d’autres partenaires pour renforcer la compatibilité et l’évolution de l’écosystème x86 face à la montée en puissance d’Arm, des accélérateurs spécialisés et du développement de l’IA. Le livre blanc technique d’ACE, daté du

Lattice achète AMI pour 1,65 milliard pour contrôler des serveurs d'IA

Lattice achète AMI pour 1,65 milliard pour contrôler des serveurs d’IA

Lattice Semiconductor a conclu un accord définitif pour l’acquisition d’AMI pour 1,65 milliard de dollars, une opération qui associe les FPGA à faible consommation de Lattice à l’une des entreprises les plus reconnues dans le domaine du firmware plateforme et de la gestion d’infrastructures pour serveurs, cloud et Intelligence Artificielle. La transaction, annoncée le 4 mai 2026, devrait être finalisée au troisième trimestre de cette année, sous réserve des autorisations réglementaires et du respect des conditions habituelles de clôture. Ce mouvement revêt une importance particulière car il cible une couche moins visible, mais de plus en plus critique, des centres de données : la gestion de la plateforme. Dans les serveurs modernes, il ne suffit plus d’avoir des CPU, GPU,

AMD et Cohere élargissent leur partenariat pour déployer l'IA d'entreprise et « souveraine » sur des infrastructures avec GPUs Instinct

AMD et OpenAI lancent MRC, le protocole visant à éviter les goulets d’étranglement dans l’IA

AMD, OpenAI, Microsoft et d’autres grands acteurs de l’industrie ont présenté MRC, acronyme de Multipath Reliable Connection (connexion fiable multipath), un nouveau protocole réseau conçu pour améliorer la performance et la résilience des grands clusters d’entraînement en intelligence artificielle. La spécification a été publiée via l’Open Compute Project dans le but de faciliter son adoption par le secteur, au-delà des déploiements internes des entreprises impliquées dans son développement. Certains pourraient penser que cette annonce est très technique, mais elle aborde l’une des problématiques majeures de l’IA moderne. Former des modèles avancés ne se limite plus à l’ajout de GPUs. À grande échelle, la véritable performance dépend aussi de la qualité du réseau qui connecte ces accélérateurs. Si des centaines de

Les blocages de LaLiga montrent à quel point il est fragile de filtrer Internet par IP

Les blocages de LaLiga montrent à quel point il est fragile de filtrer Internet par IP

La récente vague de blocages anti-piratage en Espagne a laissé une image difficile à surpasser : des utilisateurs de Movistar ont constaté le blocage de l’accès à des domaines liés à LaLiga, notamment l’ancien site lfp.es et, selon plusieurs rapports, aussi laliga.com à certains moments. Sur l’écran s’affichait le message HTTP 451, un code indiquant qu’une ressource est indisponible pour des raisons juridiques. Cette situation illustre une paradoxe évident. Le système mis en place pour empêcher l’accès aux retransmissions sportives non autorisées aurait fini par affecter la propre organisation qui en a le plus réclamé le durcissement. Mais au-delà de cette anecdote, ce cas révèle une problématique bien plus grave : l’Espagne normalise un modèle de blocage techniquement imprécis, peu

IBM X-Force 2026 : les attaquants ne changent pas le scénario, ils l'accélèrent avec l'intelligence artificielle

IBM propose à Think 2026 un nouveau modèle opérationnel pour l’IA d’entreprise

IBM a profité de sa conférence Think 2026 pour annoncer une extension de son portefeuille dédié à l’Intelligence Artificielle et au cloud hybride, en s’adressant particulièrement aux grandes entreprises : déployer davantage de modèles ne sera pas suffisant si aucune méthode structurée n’est en place pour créer, coordonner, gouverner et sécuriser les agents d’IA en production. L’entreprise évoque un « nouveau modèle opérationnel » pour l’organisation axée sur les agents, basé sur quatre piliers essentiels : agents, données, automatisation et infrastructure hybride. Derrière cette annonce se cache une lecture claire du marché : de nombreuses organisations ont investi dans l’Intelligence Artificielle, mais peinent encore à transformer ces projets en résultats durables, surtout lorsque les pilotes traitent des données sensibles, des

Skymizer promet de porter des modèles de 700 milliards de paramètres sur une seule carte PCIe

Skymizer promet de porter des modèles de 700 milliards de paramètres sur une seule carte PCIe

Skymizer a présenté HTX301, son premier composant de référence basé sur la plateforme HyperThought, avec une promesse très attrayante pour le marché de l’inférence en intelligence artificielle : exécuter des modèles de langage jusqu’à 700 milliards de paramètres localement, sur une seule carte PCIe équipée de six puces HTX301, avec 384 Go de mémoire et une consommation d’environ 240 W par carte. Cette solution vise directement l’un des grands défis de l’IA en entreprise. Beaucoup d’entreprises souhaitent utiliser de grands modèles sans transmettre de données sensibles à des services externes, mais déployer une inférence avancée localement nécessite souvent des clusters de GPU, des interconnexions coûteuses, une réfrigération complexe et du matériel spécialisé. Skymizer affirme que son architecture peut simplifier cette

Intel et AMD scellent une trêve technologique : FRED, AVX10 et APX, les armes conjointes de x86 face à Arm et Qualcomm

AMD et Intel préparent ACE pour accélérer l’intelligence artificielle sur x86

AMD et Intel ont franchi une étape peu courante dans une industrie habituée à la compétition à chaque nouvelle génération de processeurs : ils collaborent sur une extension commune visant à accélérer les charges de travail en Intelligence Artificielle (IA) au sein de l’architecture x86. Cette initiative, nommée ACE (Extensions de Calcul IA), cherche à faire de l’accélération matricielle une capacité standard et partagée pour les futurs chips x86. Ce projet s’inscrit dans le cadre du groupe d’experts x86 Ecosystem Advisory Group, créé par AMD, Intel et d’autres partenaires pour renforcer la compatibilité et l’évolution de l’écosystème x86 face à la montée en puissance d’Arm, des accélérateurs spécialisés et du développement de l’IA. Le livre blanc technique d’ACE, daté du

Lattice achète AMI pour 1,65 milliard pour contrôler des serveurs d'IA

Lattice achète AMI pour 1,65 milliard pour contrôler des serveurs d’IA

Lattice Semiconductor a conclu un accord définitif pour l’acquisition d’AMI pour 1,65 milliard de dollars, une opération qui associe les FPGA à faible consommation de Lattice à l’une des entreprises les plus reconnues dans le domaine du firmware plateforme et de la gestion d’infrastructures pour serveurs, cloud et Intelligence Artificielle. La transaction, annoncée le 4 mai 2026, devrait être finalisée au troisième trimestre de cette année, sous réserve des autorisations réglementaires et du respect des conditions habituelles de clôture. Ce mouvement revêt une importance particulière car il cible une couche moins visible, mais de plus en plus critique, des centres de données : la gestion de la plateforme. Dans les serveurs modernes, il ne suffit plus d’avoir des CPU, GPU,

AMD et Cohere élargissent leur partenariat pour déployer l'IA d'entreprise et « souveraine » sur des infrastructures avec GPUs Instinct

AMD et OpenAI lancent MRC, le protocole visant à éviter les goulets d’étranglement dans l’IA

AMD, OpenAI, Microsoft et d’autres grands acteurs de l’industrie ont présenté MRC, acronyme de Multipath Reliable Connection (connexion fiable multipath), un nouveau protocole réseau conçu pour améliorer la performance et la résilience des grands clusters d’entraînement en intelligence artificielle. La spécification a été publiée via l’Open Compute Project dans le but de faciliter son adoption par le secteur, au-delà des déploiements internes des entreprises impliquées dans son développement. Certains pourraient penser que cette annonce est très technique, mais elle aborde l’une des problématiques majeures de l’IA moderne. Former des modèles avancés ne se limite plus à l’ajout de GPUs. À grande échelle, la véritable performance dépend aussi de la qualité du réseau qui connecte ces accélérateurs. Si des centaines de

Les blocages de LaLiga montrent à quel point il est fragile de filtrer Internet par IP

Les blocages de LaLiga montrent à quel point il est fragile de filtrer Internet par IP

La récente vague de blocages anti-piratage en Espagne a laissé une image difficile à surpasser : des utilisateurs de Movistar ont constaté le blocage de l’accès à des domaines liés à LaLiga, notamment l’ancien site lfp.es et, selon plusieurs rapports, aussi laliga.com à certains moments. Sur l’écran s’affichait le message HTTP 451, un code indiquant qu’une ressource est indisponible pour des raisons juridiques. Cette situation illustre une paradoxe évident. Le système mis en place pour empêcher l’accès aux retransmissions sportives non autorisées aurait fini par affecter la propre organisation qui en a le plus réclamé le durcissement. Mais au-delà de cette anecdote, ce cas révèle une problématique bien plus grave : l’Espagne normalise un modèle de blocage techniquement imprécis, peu