Zscaler met l’accent sur l’empreinte IA de l’entreprise avec une nouvelle suite de sécurité

Zscaler renforce ZDX : détection 98 % plus rapide et résolution “en quelques minutes” avec télémétrie unifiée et déroutement intelligent en cas de panne ISP

La course à la déploiement de l’Intelligence Artificielle générative et, surtout, l’Intelligence Artificielle agentique en entreprise pose un problème peu glamour : la sécurité est en retard. À chaque nouveau copilote, API de modèles, agent automatisant des tâches ou intégration SaaS, le périmètre traditionnel s’efface peu à peu… et la visibilité devient plus complexe.

C’est le point de départ de l’annonce que Zscaler a rendue publique le 27 janvier 2026 : une série d’innovations regroupées dans sa AI Security Suite, conçue pour permettre aux équipes IT et sécurité de découvrir, de classifier et de gouverner l’utilisation réelle de l’IA dans l’organisation, sans freiner son adoption.

Le nouveau trou noir : l’IA partout… et personne ne la voit dans sa globalité

Dans son communiqué, l’entreprise reconnaît un pattern que chaque administrateur et CISO identifie rapidement : l’entreprise ne dispose généralement pas d’un inventaire complet des outils IA utilisés (Shadow AI, environnements de développement, IA intégrée dans SaaS, modèles, agents et infrastructure). Cela empêche d’évaluer précisément l’exposition, l’accès aux données et le risque.

Ce manque de cartographie est aggravé par un second problème : le trafic et les flux générés par l’IA ne se comportent pas comme le trafic web traditionnel. Selon Zscaler, les patterns “non-humains” et les nouveaux protocoles compliquent l’application de politiques et de contrôles avec des outils classiques.

Par ailleurs, Zscaler relie cette annonce à une donnée marquante issue de son ThreatLabz 2026 AI Security Report : l’entreprise affirme que, dans ses analyses, “la majorité” des systèmes IA en entreprise pourraient être compromis en 16 minutes, avec des failles critiques dans 100 % des systèmes étudiés.

Trois axes : inventaire, accès sécurisé et protection du cycle de vie

La suite s’articule autour de trois cas d’usage qui, concrètement, couvrent le “avant, pendant et après” l’adoption de l’IA :

  • AI Asset Management : inventaire des applications, modèles, agents, infrastructures et usages, visant à détecter la shadow AI et à prioriser les risques en fonction des données impliquées par chaque service.
  • Accès sécurisé à l’IA : contrôles Zero Trust pour autoriser les services approuvés, avec inspection en ligne et classification des prompts afin de limiter les fuites de données ou usages abusifs, tout en conservant la productivité.
  • Infrastructure et applications IA sécurisées : protection du développement IA “de la build à l’exécution”, comprenant red teaming automatisé, durcissement des prompts et garde-fous en temps réel.

Pour faire simple : Zscaler tente de transformer ce chaos d’outils, APIs, extensions et agents en une sorte de CMDB vivante de l’IA, avec relations, dépendances et contexte de données.

MCP, agents et sécurité en retard d’avance

Un des éléments clés pour les profils systèmes : Zscaler mentionne explicitement dans son inventaire des éléments comme serveurs MCP, agents, modèles, en plus de l’infrastructure sous-jacente. Cela indique une tendance émergente : des entreprises qui commencent à déployer des “couches” pour connecter agents et outils à des ressources internes et externes de façon automatisée.

Dans ce contexte, la société évoque aussi l’extension de ses capacités avec un MCP gateway pour une automatisation sécurisée, ainsi que l’utilisation de AI Deception pour détourner et neutraliser les attaques “model-based”.

Et là se pose une question essentielle : le débat ne porte plus seulement sur “bloquer ou autoriser ChatGPT”, mais sur la gouvernance des conversations, actions et permissions des systèmes agissant avec une certaine autonomie (ou automatisant des processus auparavant manuels).

L’indicateur d’usage : plus d’IA, plus de blocages et plus de données en jeu

Au-delà du marketing, le rapport ThreatLabz agit comme un thermomètre des tendances. Sur sa page dédiée au rapport 2026, Zscaler indique avoir observé 1 billion de transactions IA/ML en 2025, avec une croissance annuelle de 91 %. Par ailleurs, sa plateforme a identifié environ 3 400 applications générant du trafic lié à l’IA/ML.

Deux chiffres frappent tout gestionnaire de proxy, CASB ou DLP : Zscaler indique que 39 % des transactions IA/ML ont été bloquées (pour des raisons de sécurité, conformité ou politique). Et le volume total de données transférées via ces applications atteint 18 000 TB.

Concernant les applications, le rapport cite notamment des noms familiers dans l’univers professionnel, comme Grammarly, GitHub Copilot et ChatGPT, par ordre d’importance selon le volume de transations bloquées.

Gouvernance : NIST, EU AI Act et reporting “au plus haut”

Zscaler positionne cette démarche comme une réponse à la nécessité de gouvernance : aligner ses programmes de sécurité avec des cadres comme le NIST AI Risk Management Framework ou le EU AI Act, tout en fournissant des rapports exploitables pour la direction concernant l’usage de la GenAI.

Cela rejoint une réalité très européenne : l’IA n’échappe plus à la conformité, à la gestion des risques, à l’audit, au juridique et à la protection de la vie privée. Du point de vue sécurité et systèmes, l’enjeu est clair : si l’on ne peut pas expliquer quels modèles sont utilisés, qui y accède, quelles données y entrent et ce qui en sort… le problème n’est pas l’IA, c’est le manque de contrôle.


Questions fréquentes

Qu’est-ce que la “shadow AI” et pourquoi inquiète la DSI ?
Il s’agit de l’utilisation d’outils IA sans validation ni contrôle centralisé. Cela comporte un risque accru de fuite de données, de non-conformité et de manque de traçabilité quant aux informations partagées avec des modèles ou des services externes.

Pourquoi l’IA agentique modifie-t-elle la donne en matière de sécurité ?
Parce qu’elle ne se contente pas de répondre : elle peut exécuter des actions (interroger des systèmes, lancer des tâches, modifier des tickets, accéder à des dépôts). Cela accroît le potentiel d’abus de permissions, d’actions malveillantes via prompts ou d’intégrations mal sécurisées.

Quel intérêt à disposer d’un inventaire “de l’empreinte IA” plutôt qu’un blocage catégoriel traditionnel ?
Un blocage générique peut freiner la productivité ou laisser des failles, alors qu’un inventaire avec dépendances permet de voir ce qui est réellement utilisé, les données concernées par chaque service, et d’appliquer des politiques fines (par utilisateur, application, type de données ou contexte).

Quels sont les contrôles indispensables pour éviter des fuites avec la GenAI en entreprise ?
Gagner en visibilité, classifier les données, inspecter en temps réel, définir des politiques restrictives (quelles outils sont autorisés, dans quels cas, avec quelles données), tout en mettant en place des garde-fous pour les prompts et les sorties quand le flux de travail l’impose.

Source : zscaler

le dernier