Catégorie : Cloud

L'Europe risque de prendre du retard en intelligence artificielle et en technologie en raison d'une réglementation complexe

L’Europe ajuste sa loi sur l’IA alors que les États-Unis et la Chine accélèrent

L’Union Européenne a décidé de ralentir la mise en œuvre de sa Loi sur l’Intelligence Artificielle avant que celle-ci ne déploie toutes ses implications. L’accord provisoire trouvé entre le Conseil et le Parlement reporte une partie des obligations pour les systèmes à haut risque, réduit les chevauchements avec d’autres réglementations, et introduit une interdiction spécifique contre les outils qui génèrent des images intimes ou sexuelles sans consentement. La lecture technologique est claire : Bruxelles cherche à maintenir son rôle de régulateur mondial sans que la Loi sur l’IA devienne un frein pour son industrie. Ce mouvement s’inscrit dans un contexte de compétition géopolitique pour l’Intelligence Artificielle. Les États-Unis avancent avec une approche plus favorable à l’industrie, soutenue par de grandes

Pare-feux FortiGate dans un centre de données sécurisant le trafic IA

Fortinet lance les FortiGate 3500G et 400G : sécurité IA pour datacenters et périphérie

Fortinet a lancé le 7 mai 2026 deux nouveaux pare-feux de la gamme FortiGate G : le 3500G, ciblant les centres de données à haute densité, et le 400G, destiné au périmètre d’entreprise. Les deux modèles tournent sous FortiOS 8.0 et embarquent les ASIC NP7 et SP5 fabriqués en interne, avec une performance annoncée de 595 Gbps pour le pare-feu du 3500G. L’enjeu : l’explosion des architectures IA d’entreprise impose de repenser la sécurité réseau, du trafic chiffré entre applications jusqu’aux communications inter-agents autonomes. Quand l’IA recompose la surface d’attaque réseau Pendant des années, la sécurité réseau d’entreprise s’est concentrée sur un seul vecteur : le trafic nord-sud, ce qui entre et sort du périmètre. L’IA d’entreprise change l’équation. Les

IBM X-Force 2026 : les attaquants ne changent pas le scénario, ils l'accélèrent avec l'intelligence artificielle

IBM propose à Think 2026 un nouveau modèle opérationnel pour l’IA d’entreprise

IBM a profité de sa conférence Think 2026 pour annoncer une extension de son portefeuille dédié à l’Intelligence Artificielle et au cloud hybride, en s’adressant particulièrement aux grandes entreprises : déployer davantage de modèles ne sera pas suffisant si aucune méthode structurée n’est en place pour créer, coordonner, gouverner et sécuriser les agents d’IA en production. L’entreprise évoque un « nouveau modèle opérationnel » pour l’organisation axée sur les agents, basé sur quatre piliers essentiels : agents, données, automatisation et infrastructure hybride. Derrière cette annonce se cache une lecture claire du marché : de nombreuses organisations ont investi dans l’Intelligence Artificielle, mais peinent encore à transformer ces projets en résultats durables, surtout lorsque les pilotes traitent des données sensibles, des

Skymizer promet de porter des modèles de 700 milliards de paramètres sur une seule carte PCIe

Skymizer promet de porter des modèles de 700 milliards de paramètres sur une seule carte PCIe

Skymizer a présenté HTX301, son premier composant de référence basé sur la plateforme HyperThought, avec une promesse très attrayante pour le marché de l’inférence en intelligence artificielle : exécuter des modèles de langage jusqu’à 700 milliards de paramètres localement, sur une seule carte PCIe équipée de six puces HTX301, avec 384 Go de mémoire et une consommation d’environ 240 W par carte. Cette solution vise directement l’un des grands défis de l’IA en entreprise. Beaucoup d’entreprises souhaitent utiliser de grands modèles sans transmettre de données sensibles à des services externes, mais déployer une inférence avancée localement nécessite souvent des clusters de GPU, des interconnexions coûteuses, une réfrigération complexe et du matériel spécialisé. Skymizer affirme que son architecture peut simplifier cette

Intel et AMD scellent une trêve technologique : FRED, AVX10 et APX, les armes conjointes de x86 face à Arm et Qualcomm

AMD et Intel préparent ACE pour accélérer l’intelligence artificielle sur x86

AMD et Intel ont franchi une étape peu courante dans une industrie habituée à la compétition à chaque nouvelle génération de processeurs : ils collaborent sur une extension commune visant à accélérer les charges de travail en Intelligence Artificielle (IA) au sein de l’architecture x86. Cette initiative, nommée ACE (Extensions de Calcul IA), cherche à faire de l’accélération matricielle une capacité standard et partagée pour les futurs chips x86. Ce projet s’inscrit dans le cadre du groupe d’experts x86 Ecosystem Advisory Group, créé par AMD, Intel et d’autres partenaires pour renforcer la compatibilité et l’évolution de l’écosystème x86 face à la montée en puissance d’Arm, des accélérateurs spécialisés et du développement de l’IA. Le livre blanc technique d’ACE, daté du

Lattice achète AMI pour 1,65 milliard pour contrôler des serveurs d'IA

Lattice achète AMI pour 1,65 milliard pour contrôler des serveurs d’IA

Lattice Semiconductor a conclu un accord définitif pour l’acquisition d’AMI pour 1,65 milliard de dollars, une opération qui associe les FPGA à faible consommation de Lattice à l’une des entreprises les plus reconnues dans le domaine du firmware plateforme et de la gestion d’infrastructures pour serveurs, cloud et Intelligence Artificielle. La transaction, annoncée le 4 mai 2026, devrait être finalisée au troisième trimestre de cette année, sous réserve des autorisations réglementaires et du respect des conditions habituelles de clôture. Ce mouvement revêt une importance particulière car il cible une couche moins visible, mais de plus en plus critique, des centres de données : la gestion de la plateforme. Dans les serveurs modernes, il ne suffit plus d’avoir des CPU, GPU,

L'Europe risque de prendre du retard en intelligence artificielle et en technologie en raison d'une réglementation complexe

L’Europe ajuste sa loi sur l’IA alors que les États-Unis et la Chine accélèrent

L’Union Européenne a décidé de ralentir la mise en œuvre de sa Loi sur l’Intelligence Artificielle avant que celle-ci ne déploie toutes ses implications. L’accord provisoire trouvé entre le Conseil et le Parlement reporte une partie des obligations pour les systèmes à haut risque, réduit les chevauchements avec d’autres réglementations, et introduit une interdiction spécifique contre les outils qui génèrent des images intimes ou sexuelles sans consentement. La lecture technologique est claire : Bruxelles cherche à maintenir son rôle de régulateur mondial sans que la Loi sur l’IA devienne un frein pour son industrie. Ce mouvement s’inscrit dans un contexte de compétition géopolitique pour l’Intelligence Artificielle. Les États-Unis avancent avec une approche plus favorable à l’industrie, soutenue par de grandes

Pare-feux FortiGate dans un centre de données sécurisant le trafic IA

Fortinet lance les FortiGate 3500G et 400G : sécurité IA pour datacenters et périphérie

Fortinet a lancé le 7 mai 2026 deux nouveaux pare-feux de la gamme FortiGate G : le 3500G, ciblant les centres de données à haute densité, et le 400G, destiné au périmètre d’entreprise. Les deux modèles tournent sous FortiOS 8.0 et embarquent les ASIC NP7 et SP5 fabriqués en interne, avec une performance annoncée de 595 Gbps pour le pare-feu du 3500G. L’enjeu : l’explosion des architectures IA d’entreprise impose de repenser la sécurité réseau, du trafic chiffré entre applications jusqu’aux communications inter-agents autonomes. Quand l’IA recompose la surface d’attaque réseau Pendant des années, la sécurité réseau d’entreprise s’est concentrée sur un seul vecteur : le trafic nord-sud, ce qui entre et sort du périmètre. L’IA d’entreprise change l’équation. Les

IBM X-Force 2026 : les attaquants ne changent pas le scénario, ils l'accélèrent avec l'intelligence artificielle

IBM propose à Think 2026 un nouveau modèle opérationnel pour l’IA d’entreprise

IBM a profité de sa conférence Think 2026 pour annoncer une extension de son portefeuille dédié à l’Intelligence Artificielle et au cloud hybride, en s’adressant particulièrement aux grandes entreprises : déployer davantage de modèles ne sera pas suffisant si aucune méthode structurée n’est en place pour créer, coordonner, gouverner et sécuriser les agents d’IA en production. L’entreprise évoque un « nouveau modèle opérationnel » pour l’organisation axée sur les agents, basé sur quatre piliers essentiels : agents, données, automatisation et infrastructure hybride. Derrière cette annonce se cache une lecture claire du marché : de nombreuses organisations ont investi dans l’Intelligence Artificielle, mais peinent encore à transformer ces projets en résultats durables, surtout lorsque les pilotes traitent des données sensibles, des

Skymizer promet de porter des modèles de 700 milliards de paramètres sur une seule carte PCIe

Skymizer promet de porter des modèles de 700 milliards de paramètres sur une seule carte PCIe

Skymizer a présenté HTX301, son premier composant de référence basé sur la plateforme HyperThought, avec une promesse très attrayante pour le marché de l’inférence en intelligence artificielle : exécuter des modèles de langage jusqu’à 700 milliards de paramètres localement, sur une seule carte PCIe équipée de six puces HTX301, avec 384 Go de mémoire et une consommation d’environ 240 W par carte. Cette solution vise directement l’un des grands défis de l’IA en entreprise. Beaucoup d’entreprises souhaitent utiliser de grands modèles sans transmettre de données sensibles à des services externes, mais déployer une inférence avancée localement nécessite souvent des clusters de GPU, des interconnexions coûteuses, une réfrigération complexe et du matériel spécialisé. Skymizer affirme que son architecture peut simplifier cette

Intel et AMD scellent une trêve technologique : FRED, AVX10 et APX, les armes conjointes de x86 face à Arm et Qualcomm

AMD et Intel préparent ACE pour accélérer l’intelligence artificielle sur x86

AMD et Intel ont franchi une étape peu courante dans une industrie habituée à la compétition à chaque nouvelle génération de processeurs : ils collaborent sur une extension commune visant à accélérer les charges de travail en Intelligence Artificielle (IA) au sein de l’architecture x86. Cette initiative, nommée ACE (Extensions de Calcul IA), cherche à faire de l’accélération matricielle une capacité standard et partagée pour les futurs chips x86. Ce projet s’inscrit dans le cadre du groupe d’experts x86 Ecosystem Advisory Group, créé par AMD, Intel et d’autres partenaires pour renforcer la compatibilité et l’évolution de l’écosystème x86 face à la montée en puissance d’Arm, des accélérateurs spécialisés et du développement de l’IA. Le livre blanc technique d’ACE, daté du

Lattice achète AMI pour 1,65 milliard pour contrôler des serveurs d'IA

Lattice achète AMI pour 1,65 milliard pour contrôler des serveurs d’IA

Lattice Semiconductor a conclu un accord définitif pour l’acquisition d’AMI pour 1,65 milliard de dollars, une opération qui associe les FPGA à faible consommation de Lattice à l’une des entreprises les plus reconnues dans le domaine du firmware plateforme et de la gestion d’infrastructures pour serveurs, cloud et Intelligence Artificielle. La transaction, annoncée le 4 mai 2026, devrait être finalisée au troisième trimestre de cette année, sous réserve des autorisations réglementaires et du respect des conditions habituelles de clôture. Ce mouvement revêt une importance particulière car il cible une couche moins visible, mais de plus en plus critique, des centres de données : la gestion de la plateforme. Dans les serveurs modernes, il ne suffit plus d’avoir des CPU, GPU,