Radware lance un pare-feu pour LLMs et porte la sécurité de l’IA au niveau de l’invite

WatchGuard lance la nouvelle série Firebox Tabletop : pare-feux compacts avec Wi-Fi 7, XDR et cybersécurité prête pour l'avenir

Radware a annoncé LLM Firewall, une nouvelle couche de protection conçue pour les entreprises qui intègrent déjà des modèles de langage (LLM) dans leurs produits, assistants et flux internes. L’objectif est simple : stopper les attaques et abus « dans le prompt » (avant même que la requête n’atteigne le modèle), à un moment où l’adoption de l’IA générative s’accélère, augmentant également la surface de risque.

Selon l’entreprise, LLM Firewall est proposé comme un “add-on” pour tous les niveaux de leur suite Cloud Application Protection Services. Il constitue la première étape d’une protection plus globale, destinée à des scénarios d’agentic AI (agents agissant de manière semi-autonome). Radware souligne aussi que l’approche est ni modéliste ni spécifique à un modèle particulier, et qu’elle est conçue pour s’intégrer sans freiner le déploiement.

Du WAF « classique » au « WAF pour prompts »

Dans sa communication, Radware qualifie ce produit d’évolution conceptuelle : si pendant des années le WAF protégeait les applications web contre les attaques HTTP, le saut actuel consiste à défendre contre les attaques en langage naturel, propres au comportement et à l’intégration des LLMs. La société mentionne notamment des menaces telles que l’injection de prompts, les jailbreaks et l’abus de ressources, avec une détection et un blocage en temps réel.

Par ailleurs, ce mouvement s’inscrit dans le contexte plus large de la conversation qui domine les départements d’infrastructure et des opérations : Gartner a placé l’agentic AI parmi les tendances à fort impact pour 2026, aux côtés de les plateformes de gouvernance de l’IA et la sécurité contre la désinformation. Il est clair que l’innovation avance plus vite que la mise en place de contrôles traditionnels.

Quels sont les risques protégés (et pourquoi cela compte)

Un des enjeux cruciaux dans les environnements d’entreprise est la fuite d’informations personnelles ou confidentielles via les prompts, réponses ou outils connectés au modèle. Radware affirme que son LLM Firewall est conçu pour détecter et bloquer les tentatives d’exfiltration de données avant que la requête n’atteigne le LLM du client, en lien avec des enjeux réglementaires et de conformité, tels que le RGPD et HIPAA.

Ce focus s’aligne également avec le cadre de gestion des risques consolidé dans la filière. Par exemple, OWASP inclut dans son Top 10 pour les applications intégrant des LLM des risques comme l’injection de prompts et l’exposition d’informations sensibles, montrant que le vecteur de menace ne concerne plus uniquement le « logiciel traditionnel », mais aussi l’interaction linguistique et l’intégration de l’IA dans des processus concrets.

Un marché en forte accélération

Radware n’est pas seul sur ce terrain. Ces dernières semaines, de grands acteurs de la cybersécurité et du cloud ont renforcé leurs messages : Palo Alto Networks et Google Cloud ont annoncé la prolongation de leur partenariat pour favoriser le développement et le déploiement de solutions IA, avec un focus sur la protection « de code à cloud », la posture de l’IA, la sécurité en exécution et la sécurité spécifique aux agents.

La tendance est claire : les entreprises veulent tirer parti de l’IA… mais sans ouvrir de nouvelles portes aux fuites de données, usurpations, automatisations malveillantes ou prises de décision hors contrôle.

Ce que les entreprises devraient faire au-delà des titres

La promesse d’un « firewall pour prompts » est séduisante, mais en pratique, elle fonctionne mieux comme une composante d’une stratégie multicouche. Opérationnellement, le minimum à adopter comprend généralement :

  • Un inventaire précis : localisation des LLM (applications, copilotes internes, bots support), types de données manipulées et outils déployés.
  • Des politiques de gestion des données : déterminer quelles informations peuvent entrer dans les prompts, lesquelles doivent être anonymisées, et ce qui ne doit jamais sortir du périmètre sécurisé.
  • Des contrôles d’authentification et de permissions : définir qui peut solliciter quel agent, avec quels périmètres et dans quels contextes.
  • Une surveillance spécifique : mise en place de métriques et d’alertes pour repérer les comportements atypiques (pics de prompts, prompts à but d’extraction, automatisation suspecte).
  • Des tests red team : campagnes de test ciblant l’injection de prompts/jailbreaks, et pas seulement des CVE classiques.

Dans ce contexte, des produits comme celui présenté par Radware tentent de combler une lacune que beaucoup d’entreprises découvrent tard : la sécurité de l’IA ne se limite pas seulement à des pare-feux réseau ou à de bonnes pratiques de développement. Il faut aussi apprendre à gérer le langage lui-même.

via : radware

le dernier