Fortinet a renforcé son intégration avec NVIDIA pour assurer la protection des charges de travail en Intelligence Artificielle (IA), des données et des agents autonomes dans les centres de données, le cloud, les environnements hybrides et en périphérie. La pièce maîtresse est FortiAIGate, une solution qui se positionne entre les applications et les modèles d’IA pour inspecter le trafic, appliquer des politiques, détecter les abus et réduire le risque de fuite d’informations, sans dépendre uniquement de contrôles externes au flux d’inférence.
Cette évolution intervient alors que de nombreuses entreprises passent de phases de test avec des chatbots à des déploiements plus complexes d’IA agissante. Dans ces scénarios, les modèles ne se limitent pas à répondre à des questions : ils consultent des outils, appellent des API, interagissent avec des serveurs MCP, accèdent à des données d’entreprise, et peuvent exécuter des tâches dans des processus métier. Ce changement rend la sécurité au moment de l’exécution (runtime), lorsque le modèle reçoit des instructions et génère des actions, encore plus cruciale.
Une passerelle de sécurité pour modèles, données et agents
FortiAIGate se présente comme une passerelle de sécurité spécifique aux environnements d’IA. Sa mission est de surveiller l’utilisation des modèles, de contrôler les entrées et sorties, d’enregistrer les incidents suspects et de mettre en place des garde-fous contre des menaces telles que l’injection de prompts, la génération de contenus non autorisés, l’abus d’outils connectés ou l’exfiltration de données.
L’intégration avec NVIDIA vise à résoudre une problématique pratique : protéger l’IA sans introduire de latence qui la rendrait inviable en production. Pour cela, Fortinet s’appuie sur FortiAIGate fonctionnant sur des plateformes accélérées par GPU, y compris les architectures NVIDIA Blackwell et Hopper, ainsi que sur le framework open source NVIDIA Dynamo, conçu pour déployer une inference distribuée. Dynamo permet de déployer des modèles génératifs dans des environnements distribués à faible latence, avec une gestion optimisée de la mémoire, un routage des requêtes et un scalabilité sur des flottes de GPU.
L’objectif est que l’inspection de sécurité fonctionne avec des performances adaptées aux applications d’IA modernes. Dans une architecture classique, de nombreux contrôles de sécurité dépendent de CPU et ont été conçus pour le trafic web, les API ou les charges d’entreprise traditionnelles. L’IA générative et les agents introduisent de nouveaux schémas : prompts longs, réponses étendues, appels à des outils, contexte persistant et décisions en chaîne. Si la sécurité ne suit pas ce rythme, elle sera souvent désactivée, contournée ou placée trop loin du point où le risque survient.
Fortinet met également en avant le déploiement en ligne (inline). Cela signifie que la solution peut être placée sur le trajet entre l’application et le modèle, plutôt que de se limiter à analyser les logs après un incident. Cette approche permet de bloquer ou de modifier des interactions avant qu’une requête malveillante n’atteigne le modèle ou qu’une réponse contenant des données sensibles ne soit transmise à l’utilisateur, sous réserve de la configuration, des politiques appliquées et de la compréhension du contexte spécifique à chaque organisation.
Une IA souveraine avec un contrôle renforcé de l’infrastructure
Un des arguments clés de cette annonce est la souveraineté de l’IA. Fortinet présente FortiAIGate comme une solution pouvant être déployée sur une infrastructure locale, dans le cloud, en mode hybride ou en périphérie, avec des options d’appliance physique, d’appliance virtuelle ou de conteneurs fonctionnant sur des systèmes certifiés par NVIDIA.
Ce point répond à une préoccupation croissante en Europe et dans les secteurs réglementés. Les entreprises souhaitent exploiter des modèles de langage et des agents, mais ne peuvent pas toujours envoyer des données sensibles vers des services externes sans contrôler leur résidence, leur traçabilité, leur fournisseur, la juridiction ou la conformité réglementaire. Dans ce contexte, une passerelle auto-hébergée (self-hosted) permet d’appliquer des politiques internes concernant l’usage de l’IA, dans le respect des contraintes techniques et légales propres à chaque organisation.
Fortinet évoque également l’utilisation de modèles de sécurité NVIDIA Nemotron pour accompagner la supervision des interactions. Concrètement, cette approche tente de distinguer deux plans : d’un côté, les modèles qui réalisent la tâche métier ; de l’autre, des modèles ou contrôles spécialisés chargés d’évaluer les risques, le contenu, les instructions suspectes ou les fuites potentielles.
La société relie aussi FortiAIGate à des environnements multi-locataires, particulièrement pertinents pour les fournisseurs de services, les grandes entreprises et les centres de données dédiés à l’IA. L’usage de techniques telles que NVIDIA Multi-Instance GPU (MIG) permet de diviser une seule GPU physique en plusieurs instances isolées, avec une qualité de service et une séparation des charges. Cela évite qu’une application IA interfère avec une autre ou que différentes divisions d’une même entreprise partagent l’infrastructure sans mélanger données ni exécutions.
Cependant, il est essentiel de ne pas réduire la souveraineté à une simple question géographique. Disposer de l’IA dans un data center local ou national est une étape, mais cela ne suffit pas si les modèles, les données d’entraînement, les logs, les identifiants ou les connecteurs ne sont pas bien gouvernés. La souveraineté effective repose sur l’architecture, les contrats, l’audit, le contrôle opérationnel et la capacité à réagir rapidement face aux incidents.
Le nouveau défi : protéger les agents en action
La sécurité de l’IA ne peut plus se limiter à filtrer des prompts offensifs ou empêcher qu’un chatbot tienne des propos inappropriés. Le risque principal apparaît lorsqu’un agent a des permissions pour agir : ouvrir un ticket, consulter une base de données, générer une commande d’achat, modifier une configuration ou invoquer un outil connecté à des systèmes internes.
C’est là que surgissent des attaques telles que l’injection de prompts indirecte, l’abus d’outils, l’extraction secrète par des réponses apparemment légitimes, la manipulation du contexte RAG ou l’usage malveillant de serveurs MCP. Fortinet travaille depuis déjà quelque temps sur l’inspection des interactions MCP via FortiWeb, et FortiAIGate étend cette logique à un modèle plus global de protection des écosystèmes d’IA.
La collaboration avec NVIDIA vise à offrir cette protection avec un niveau de performance adapté à l’entreprise. Les organisations qui déploient de façon sérieuse une IA ne veulent pas devoir choisir entre sécurité et rapidité. Elles ont besoin des deux : politiques Zero Trust, audit, contrôle des données et réponse en temps réel, tout en conservant une faible latence et de hauts volumes d’inférence.
Le message commercial de Fortinet est ambitieux, mais le problème qu’il vise à résoudre est réel. Beaucoup d’entreprises adoptent l’IA plus rapidement que leurs équipes de sécurité ne peuvent suivre. Certaines laissent des utilisateurs connecter des outils externes sans contrôle, d’autres créent des agents internes ayant des permissions excessives, et beaucoup ne savent pas comment enregistrer, auditer ou expliquer les actions d’un agent dans une séquence décisionnelle.
FortiAIGate cherche à combler ce vide : une couche de gouvernance et de sécurité pour l’IA, destinées à la production autant qu’au développement. Sa valeur dépendra de l’intégration avec le reste de l’écosystème de sécurité, de la qualité de ses politiques, de la visibilité qu’elle offre, et de sa capacité à s’adapter à des modèles, agents et flux en rapide évolution.
Le marché semble tracé : à l’image des firewalls, WAF, EDR, CNAPP ou DLP qui protègent les couches précédentes de l’infrastructure numérique, des contrôles spécifiques à l’IA commencent à émerger. La différence réside dans le fait que les agents ne sont pas seulement une nouvelle application, mais peuvent devenir des intermédiaires essentiels entre humains, données et systèmes critiques. Leur sécurisation nécessite donc plus que de bloquer des mots interdits ; il faut comprendre le contexte, les permissions, l’intention, la sensibilité des données et les implications de chaque action.
Foire aux questions
Qu’est-ce que FortiAIGate ?
FortiAIGate est une solution de Fortinet conçue pour protéger les charges de travail en Intelligence Artificielle, les données et les agents autonomes. Elle se déploie comme une passerelle entre applications et modèles afin d’appliquer des politiques, surveiller l’utilisation et bloquer les menaces en temps réel.
Quelle est la valeur de l’intégration avec NVIDIA ?
Elle permet d’accélérer FortiAIGate sur des plateformes NVIDIA, y compris les GPU Blackwell et Hopper, et de s’appuyer sur NVIDIA Dynamo pour l’inférence distribuée. L’objectif est d’assurer une sécurité IA à faible latence et évolutive en centres de données et dans le cloud.
Quelles menaces cherche-t-elle à contrer ?
FortiAIGate vise à réduire les risques liés à l’injection de prompts malveillants, à l’exfiltration de données, à l’usage non autorisé de modèles, aux réponses toxiques ou interdites, à l’abus d’outils connectés, et aux actions hors politique des agents d’IA.
Pourquoi parle-t-on d’IA souveraine ?
Parce que FortiAIGate peut être déployée sur une infrastructure propre, dans le cloud, en mode hybride ou en périphérie, permettant ainsi de garder le contrôle des données, prompts, réponses et logs, tout en respectant les exigences légales et réglementaires spécifiques à chaque organisation.
via : fortinet