Les menaces internes continuent de représenter l’un des plus grands défis pour les responsables de la cybersécurité. À cette problématique s’ajoute désormais l’expansion de l’intelligence artificielle autonome, qui pourrait considérablement augmenter le risque d’exposition de données sensibles. Selon Proofpoint, les copilotes basés sur l’IA pourraient dépasser cette année même les employés comme source de fuites d’informations.
De plus en plus d’organisations intègrent des agents intelligents capables d’interagir avec plusieurs systèmes, d’automatiser des tâches complexes ou de générer du code. Cependant, si ces systèmes ne sont pas correctement configurés, ils peuvent déclencher des processus exposant des données confidentielles ou affaiblissant les contrôles de sécurité. Par ailleurs, dans certains contextes, le comportement de ces agents pourrait être manipulé pour exécuter des actions non autorisées.
Les experts soulignent que les programmes traditionnels de prévention contre les menaces internes ont été conçus en pensant aux risques liés aux personnes : leurs accès, leurs opportunités ou leurs motivations potentielles. Néanmoins, l’intégration de l’intelligence artificielle introduit une nouvelle dimension de risque. Les chercheurs de Proofpoint insistent sur le fait que les agents d’IA doivent être considérés comme des identités numériques avec des privilèges propres, ce qui oblige les organisations à gérer leurs permissions, surveiller leurs activités et évaluer leur impact sur la sécurité.
Dans ce nouvel environnement de travail où humains et agents d’IA collaborent régulièrement, les risques liés aux erreurs involontaires augmentent également. Des outils basés sur de grands modèles de langage comme ChatGPT, Microsoft Copilot ou Google Gemini peuvent favoriser l’exposition accidentelle d’informations sensibles lorsque les utilisateurs y saisissent des données. De même, ces agents pourraient résumer des documents internes ou accéder à des informations restreintes si des limites ne sont pas clairement établies.
La situation pourrait se compliquer si des acteurs malveillants utilisent des instructions conçues pour manipuler ces systèmes d’IA. Par le biais de telles interactions, ils pourraient amener les agents à révéler des processus internes ou à exécuter des actions auparavant réservées à des connaissances techniques avancées.
En outre, les incidents liés aux menaces internes tendent à augmenter lors de périodes de changements organisationnels, tels que fusions, acquisitions ou processus de recrutement intensifs. Dans ces contextes, l’accès aux systèmes en transition et la pression exercée sur les employés créent un environnement plus propice aux fuites d’informations ou aux pratiques abusives. Selon les analystes, l’intelligence artificielle pourrait également faciliter des activités comme l’espionnage industriel, en permettant d’enquêter sur des concurrents, de répliquer des communications légitimes ou de dissimuler certaines actions.
Malgré ces risques, l’IA apparaît aussi comme un outil stratégique pour renforcer la sécurité. Proofpoint prévoit qu’en 2026, l’intelligence artificielle jouera un rôle de plus en plus central dans la détection et l’analyse des incidents internes. Grâce à sa capacité à traiter d’importants volumes de données, elle pourra repérer des schémas suspects, faire des corrélations d’événements et hiérarchiser les menaces plus rapidement.
Ce changement impliquera également une transformation de la gestion des risques. Les organisations devront intégrer une approche unifiée, combinant les signaux provenant des identités, des comportements des utilisateurs et des événements techniques, plutôt que de les analyser séparément. Avec une vision intégrée, les équipes de sécurité pourront intervenir plus précocement et mettre en œuvre des mesures plus précises.
Enfin, les spécialistes mettent en avant l’importance d’établir des règles claires pour l’utilisation responsable de l’intelligence artificielle, incluant des politiques de confidentialité, des critères éthiques et des mécanismes de gouvernance pour réguler le fonctionnement des agents et leur accès aux données sensibles de l’entreprise. Selon Proofpoint, l’adoption de telles mesures sera essentielle pour réduire ces nouvelles menaces et garantir un environnement numérique sécurisé où humains et systèmes d’IA cohabitent dans la confiance.