Un informe récent de Palo Alto Networks, leader mondial en cybersécurité, met en garde contre le fait que 75% des projets d’intelligence artificielle agentique en cours de développement en Europe présentent un risque important pour la sécurité des organisations. Le problème ne réside pas dans la technologie elle-même, mais dans la manque de gouvernance, de contrôle et de supervision appropriés.
Basé sur plus de 3 000 interviews avec des dirigeants de haut niveau (C-suite) d’entreprises européennes, l’étude montre que de nombreuses initiatives d’IA sont mises en œuvre sans stratégie claire, sans objectifs précis et sans critères de sécurité établis, ce qui témoigne d’une faible implication des conseils d’administration. Selon l’entreprise, si des mesures urgentes ne sont pas prises par la direction, l’innovation actuelle pourrait conduire à une crise cybernétique dans le futur.
Pour éviter cela et garantir que l’IA agentique génère une valeur réelle et durable, Palo Alto Networks propose trois piliers fondamentaux pour guider une adoption responsable et sécurisée.
Pilier 1 : Définir et limiter les résultats
L’analyse identifie comme principale cause d’échec le phénomène du « détournement de résultats », c’est-à-dire des projets d’IA lancés sans objectifs d’entreprise mesurables ni approche basée sur le risque. Selon Gartner, 40 % de tous les projets seront annulés avant 2027, tandis que le MIT estime que 95 % des programmes d’IA générative en entreprise échouent déjà. La situation est encore plus préoccupante du point de vue de la cybersécurité, puisque seules 6 % des organisations appliquent un cadre de sécurité avancé à l’IA (Stanford).
“La grande différence aujourd’hui, c’est que l’IA agentique ne se limite pas à fournir des réponses, elle exécute des actions orientées vers des résultats concrets,” explique Haider Pasha, CISO d’EMEA chez Palo Alto Networks. “Les organisations capables d’identifier les cas d’usage appropriés et de les aligner avec leurs objectifs commerciaux seront celles qui réussiront véritablement à tirer parti de cette technologie.”
La société recommande de concevoir les projets d’agents d’IA à partir d’objectifs clairement définis et approuvés par le conseil d’administration, en conformité avec les normes de sécurité et d’identité de l’entreprise.
Pilier 2 : Barrières de sécurité dès la conception
L’analyse souligne que la confiance dans l’IA doit être équilibrée avec le contrôle, en appliquant les principes du Zero Trust et une approche de sécurité centrée sur l’identité. Les erreurs les plus courantes proviennent de agents avec des privilèges excessifs, de contrôles d’identité faibles ou sans limites d’accès clairement définies.
Palo Alto Networks insiste sur le fait que l’autonomie des agents doit être gagnée, et non donnée dès le départ. Les systèmes doivent être traités comme des employés numériques, soumis à des niveaux de confiance progressifs et à une surveillance continue. Pour cela, la société recommande :
- Appliquer le modèle Zero Trust à l’ensemble de l’architecture.
- Séparer les privilèges et contrôler les sous-agents.
- Enregistrer toutes les actions et maintenir une intervention humaine en permanence.
- Adopter un cadre de sécurité pour l’IA intégré, en évitant les solutions isolées.
Actuellement, le ratio entre agents et humains tourne autour de 80 à 1, une proportion qui va rapidement augmenter dans les années à venir, obligeant les organisations à établir des cadres de contrôle robustes et évolutifs.
Pilier 3 : Gouvernance transversale et responsabilité partagée
Enfin, Palo Alto Networks souligne que les agents d’IA doivent être abordés comme une initiative transversalede l’entreprise, et non comme un projet isolé du département informatique. Pour garantir leur succès, l’entreprise propose la création d’un “Conseil de Gouvernance des Agents”, comprenant des représentants des départements de la sécurité, du risque, du juridique, des opérations et du business, avec des revues périodiques au niveau du conseil d’administration. En outre, elle recommande aux conseils :
- De surveiller plus strictement l’intégration et les résultats des projets.
- De se former activement aux implications de l’IA.
- De nouer des partenariats avec des acteurs technologiques de confiance sur le long terme.
- De donner plus de pouvoir aux responsables pour adopter l’IA de manière contrôlée et sécurisée.
Ce modèle de responsabilité partagée renforce la résilience, assure la conformité réglementaire et garantit que les projets soient alignés sur les objectifs stratégiques.