Prédictions 2026 : les agents d’IA auront un rôle dual dans la bataille pour la cybersécurité

F5 acquiert CalypsoAI pour renforcer la sécurité de l'intelligence artificielle dans les grandes entreprises

L’intelligence artificielle est devenue un élément clé qui bénéficie à la fois aux attaquants et aux défenseurs. Dans ce contexte, José María Alonso, directeur pays de Snowflake en Espagne et au Portugal, identifie trois grandes tendances qui façonneront l’évolution de cette course technologique d’ici à 2026.

Les agents cybernétiques deviendront des armes dans la prochaine vague de cybercriminalité

La course à l’armement en cybersécurité a toujours été caractérisée par un jeu de va-et-vient constant entre attaquants et défenseurs, mais l’émergence d’agents d’IA capables d’enquêter, de concevoir et d’exécuter des attaques déséquilibrera la balance de manière alarmante. D’ici à 2026, la cybercriminalité basée sur les agents deviendra une problématique de premier plan, avec les défenseurs confrontés à une nouvelle catégorie d’adversaires. L’un des risques majeurs avec ces agents d’IA sera l’injection de prompts — des adversaires manipulant les systèmes pour contourner les barrières de sécurité — ainsi que les hallucinations qu’ils génèrent, produisant des résultats erronés ou trompeurs. Nous pourrions voir des agents qui analyseront le code, détecteront une vulnérabilité et bâtiront des kits d’exploits sur-mesure pour exfiltrer des données ou déployer des ransomwares. Des cas où l’IA créera des documents de vente ou des réclamations de sécurité fictifs risquent également d’apparaître, mettant les entreprises en danger de sanctions légales. Mais cela n’est que le début. Le véritable tournant se produira lorsque ces agents cesseront simplement d’imiter les attaquants pour élaborer des stratégies totalement nouvelles. C’est à ce moment que la défense devra faire face à un niveau de complexité inédit.

Les cybercriminels exploiteront l’IA sombre pour intensifier leurs attaques

Bien que les modèles fondamentaux actuels intègrent déjà des protections de sécurité, des acteurs malveillants développent désormais des versions dépourvues de filtres, comme FraudGPT ou WormGPT, pour générer des campagnes de phishing, des codes malicieux ou des attaques d’ingénierie sociale. En plusieurs aspects, cela représente le revers sombre du code ouvert, avec des malfaiteurs utilisant des modèles open source comme GPT-J-6B et les déployant sans respecter les limites éthiques imposées par les systèmes commerciaux. Les outils améliorés par l’IA s’intégreront rapidement à la chaîne d’approvisionnement du cybercrime en tant que service. Cette économie souterraine ne dépendra plus d’individus isolés, mais d’entreprises mondiales qui empaquettent et vendent toute l’infrastructure du cybercrime, avec des modèles d’abonnement, un support client et des mises à jour régulières. Au fur et à mesure que ces offres évolueront, même les modèles d’IA les plus avancés et coûteux seront inévitablement détournés en véritables armes.

Les outils d’IA combleront la pénurie de talents en cybersécurité

Malgré tous les risques associés à l’IA, celle-ci porte aussi une promesse concrète pour les défenseurs. L’IA générative et agentielle commencera à offrir aux centres de sécurité opérationnelle l’échelle qui leur manquait. Le problème le plus récurrent pour les responsables de la sécurité (CISOs) demeure la pénurie d’analystes qualifiés. Le talent en sécurité est difficile à trouver et à retenir. Plutôt que de remplacer l’expertise humaine, l’IA avancée permettra de pourvoir les postes de sécurité qui restent vacants depuis des années, en renforçant les capacités des analystes et en rendant la lutte équilibrée. Dans les trois prochaines années, les agents d’IA fourniront le levier nécessaire pour inverser durablement la tendance en faveur des défenseurs.

le dernier