Gigamon met en garde contre une hausse critique des menaces alimentées par l’IA, qui menace les environnements cloud et multiplie les failles de sécurité
La prolifération des attaques cybernétiques propulsées par l’intelligence artificielle (IA) oblige les entreprises à réévaluer leurs stratégies d’infrastructure, en particulier dans les environnements de cloud hybride. C’est ce que révèle la dernière étude mondiale de Gigamon, qui note une augmentation de 17 % des violations de sécurité par rapport à l’année précédente, ainsi qu’un nombre sans précédent de cybermenaces.
Selon le rapport, 55 % des organisations ont subi des violations au cours de l’année dernière, le ransomware et les attaques sur les modèles de langage (LLM) se distinguant comme les principales menaces. De plus, 58 % des responsables de la sécurité ont constaté une augmentation des ransomwares alimentés par l’IA, tandis que 47 % ont été ciblés par des attaques directes sur leurs mises en œuvre d’IA générative.
“Nous constatons que l’IA transforme non seulement les entreprises, mais également les attaquants. Les menaces sont plus rapides, plus adaptatives et plus difficiles à détecter avec des outils traditionnels,” déclare Chaim Mazal, directeur de la sécurité chez Gigamon.
Cloud public sous pression : la rapatriement des données s’accélère
Dans un tournant stratégique remarquable, 70 % des leaders IT et sécurité considèrent désormais que le cloud public représente le plus grand risque en matière de sécurité, devant tout autre environnement. Cette perception a conduit le même pourcentage d’organisations à envisager le rapatriement des données vers des environnements privés ou hybrides.
54 % des répondants se montrent également réticents à déployer des charges d’IA dans le cloud public par crainte de l’exposition de la propriété intellectuelle. Le manque de visibilité et de données fiables pour une mise en œuvre sécurisée de l’IA est identifié comme l’un des principaux obstacles.
Visibilité limitée et outils obsolètes
Près de deux tiers des organisations (64 %) priorisent cette année l’obtention d’une visibilité complète en temps réel sur toutes les données en mouvement. Actuellement, 55 % n’ont pas confiance dans la capacité de leurs outils de sécurité à détecter les violations efficacement, le manque de visibilité étant le principal frein.
Ce problème est aggravé par un contexte dans lequel les volumes de trafic réseau ont doublé en raison de l’utilisation intensive des charges de travail d’IA, selon 33 % des leaders interrogés.
Observabilité profonde : le nouveau standard de sécurité cloud
Le concept de « observabilité profonde » se positionne comme une grande stratégie pour affronter cette nouvelle réalité. Cette approche associe la télémétrie traditionnelle (logs et métriques) avec des informations contextuelles tirées directement du réseau. L’objectif est de détecter les menaces dans le trafic chiffré, surveiller les mouvements latéraux entre les charges et anticiper des attaques complexes avant qu’elles ne s’intensifient.
“89 % des leaders la considèrent déjà comme un pilier essentiel, et 83 % affirment que cette stratégie fait l’objet de discussions actives dans leurs conseils d’administration,” souligne Mazal.
Cette tendance est également soutenue par des experts du secteur. Mark Walmsley, CISO du cabinet Freshfields, résume cela ainsi :
“La clé pour rester en avance est la visibilité. Ce n’est qu’en voyant clairement ce qui se passe dans les systèmes d’IA et les flux de données que nous pourrons gérer le risque efficacement. L’observabilité profonde nous donne les outils pour détecter les vulnérabilités avant qu’il ne soit trop tard.”
Une menace mondiale : chiffres de l’étude
L’étude de Gigamon a été réalisée après avoir interviewé plus de 1 000 leaders mondiaux en sécurité et TI dans des régions clés telles que les États-Unis, le Royaume-Uni, l’Allemagne, la France, l’Australie et Singapour. Parmi ses principales conclusions :
- 91 %
- 46 % manquent de données propres et fiables pour mettre en œuvre l’IA de manière sécurisée.
- 47 % n’ont pas de visibilité complète sur le trafic est-ouest dans leurs environnements.
- 88 % jugent l’observabilité critique pour protéger les mises en œuvre d’IA.
Conclusion
L’ère de l’IA nécessite une révision complète des modèles de sécurité cloud. Ce qui était auparavant jugé suffisant — outils fragmentés, règles statiques et surveillance superficielle — est désormais obsolète face aux cyberattaques dynamiques et contextuelles. Pour survivre et prospérer dans ce nouvel environnement, les organisations doivent s’engager dans des infrastructures hybrides sécurisées, une visibilité totale et des modèles de protection adaptatifs.
Le cloud hybride n’est plus une option technologique : c’est une question de résilience d’entreprise.
via : helpnetsecurity