F5 et Red Hat renforcent la sécurité de Kubernetes et des applications d’IA

F5 renforce la sécurité des applications et de l'IA avec Zero Trust et la préparation quantique

F5 a renforcé sa collaboration avec Red Hat pour apporter de nouvelles capacités de sécurité dans les environnements Kubernetes, les applications basées sur l’intelligence artificielle et les opérations IT modernisées. L’annonce se concentre sur deux grands axes : la protection des applications et des API dans Red Hat OpenShift via NGINX Gateway Fabric, ainsi que la création d’architectures de référence pour déployer des charges de travail IA avec un contrôle accru dès le départ.

Ce mouvement intervient à un moment où de nombreuses entreprises migrent des applications critiques vers Kubernetes, tout en explorant des chatbots internes, des agents, des modèles génératifs et des flux IA connectés à des données sensibles. Cette combinaison augmente considérablement la surface d’attaque. Il ne suffit plus de protéger une application monolithique derrière un pare-feu traditionnel. Les organisations doivent sauvegarder leurs API, microservices, gateways, modèles, prompts, intégrations, pipelines, ainsi que le trafic entre composants, qui évoluent rapidement.

WAF pour Kubernetes sur NGINX Gateway Fabric

La première nouveauté est F5 WAF pour NGINX basé sur NGINX Gateway Fabric, accessible via un opérateur certifié pour Red Hat OpenShift. Cette solution vise à apporter une protection de couche 7 aux flux natifs de Kubernetes, avec des contrôles de sécurité pour les applications et API pouvant être gérés de façon déclarative, rapprochant ainsi la sécurité des processus quotidiens des équipes DevOps et des plateformes.

Concrètement, cela signifie que les entreprises déployant des applications sur OpenShift peuvent intégrer des règles de Web Application Firewall au sein de leur architecture Kubernetes sans perturber leurs automatisations existantes. F5 promet une couverture contre le Top 10 de l’OWASP et une sécurité moderne pour les API — deux domaines particulièrement sensibles dans des environnements où les services sont exposés, versionnés et connectés fréquemment.

L’utilisation d’un opérateur certifié pour OpenShift revêt également une importance stratégique. Kubernetes, bien que très répandu, reste complexe à gérer pour les organisations nécessitant du support, de la gouvernance et une reproductibilité. Les opérateurs facilitent l’installation, la mise à jour et la gestion des composants dans le cluster de manière automatisée. Pour les équipes de sécurité, cela permet de réduire l’écart entre la politique d’entreprise et le déploiement réel.

Ce dispositif renforce aussi le rôle de NGINX dans la stratégie de F5. Depuis son acquisition, NGINX représente une passerelle entre l’univers traditionnel de la diffusion et de la sécurité applicative et l’écosystème cloud native. NGINX Gateway Fabric s’intègre dans cette transition, conformément aux standards Kubernetes, en adoptant une gestion centralisée via manifests, référentiels et pipelines.

Il sera crucial que ces capacités ne restent pas de simples couches supplémentaires, mais s’intègrent profondément dans les processus de développement. En effet, la sécurité échoue souvent non pas faute d’outils, mais parce qu’elle arrive tard dans le cycle, nécessite des configurations manuelles ou devient un goulot d’étranglement pour les équipes déployant des applications. La sécurité comme code vise justement à pallier cela : définir, de manière répétable et révisable, des contrôles efficaces dès la conception.

La sécurité de l’IA dans OpenShift

La seconde partie de l’annonce concerne directement l’intelligence artificielle. F5 et Red Hat ont collaboré sur un AI quickstart pour Red Hat OpenShift AI, proposant des blueprints préconfigurés permettant aux équipes de déployer et d’explorer des architectures IA sans repartir de zéro. F5 mentionne des cas d’usage tels que F5 AI Guardrails et F5 AI Red Team, conçus pour ajouter des contrôles et évaluer les risques liés aux applications IA.

C’est essentiel, car l’IA en entreprise ne s’utilise pas dans un vide. Un chatbot interne peut accéder à des bases de données, des documents internes, des systèmes clients, CRM ou outils support. Un agent peut exécuter des actions. Une application IA peut recevoir des documents, interpréter des images, accéder à des API ou restituer des informations sensibles. Chacune de ces capacités introduit des risques spécifiques : fuite de données, injections (prompts), abus d’outils, réponses non autorisées ou exposition d’informations internes.

Red Hat OpenShift AI fournit une plateforme pour créer, entraîner, déployer et gérer des applications IA et machine learning sur OpenShift. La collaboration avec F5 vise à intégrer à cet environnement une couche de sécurité et de validation répondant aux exigences des secteurs réglementés ou des entreprises manipulant des données sensibles. L’objectif n’est pas simplement « utiliser l’IA », mais le faire dans des architectures plus reproductibles, avec des contrôles intégrés dès la conception.

Les quickstarts peuvent aider les organisations en phase d’adoption, notamment celles qui disposent d’équipes intéressées par l’IA mais manquent de patterns clairs pour passer d’une proof of concept à un déploiement contrôlé. Disposer d’architectures validées permet d’accélérer l’apprentissage tout en minimisant les erreurs initiales, du moment qu’elles sont adaptées aux besoins spécifiques de chaque entreprise.

Kubernetes, API et IA : une même surface de risque

Ce partenariat illustre une convergence essentielle : Kubernetes, API et IA ne sont plus des entités séparées. Les applications modernes se déploient dans des conteneurs, s’exposent via des gateways, communiquent par API, et intègrent de plus en plus des composants IA. Si la sécurité est gérée de manière cloisonnée à chaque niveau, cela complique la gouvernance globale.

Pour un CISO, cela soulève une question opérationnelle : comment appliquer des politiques cohérentes dans des environnements hybrides et multicloud où cohabitent applications traditionnelles, microservices, API publiques, modèles IA et services internes ? La solution ne peut se limiter à des contrôles périmétriques. Il faut aussi une visibilité consolidée, des politiques déclaratives, une intégration dans les processus CI/CD, une protection en temps réel, et des outils que les équipes plateforme peuvent exploiter sans freiner l’innovation.

F5 positionne son Application Delivery and Security Platform (ADSP) comme une réponse à cette complexité. Red Hat apporte OpenShift, plateforme Kubernetes d’entreprise, ainsi qu’OpenShift AI pour les charges liées à l’IA. La synergie vise à standardiser les déploiements tout en évitant que la sécurité ne soit une étape ajoutée au dernier moment.

Il y a aussi une dimension d’architectures ouvertes. F5 et Red Hat insistent sur la nécessité de solutions scalables et compatibles avec l’écosystème, un argument important pour les clients qui veulent éviter d’être enfermés dans des solutions propriétaires. Dans Kubernetes, cette démarche d’ouverture est essentielle : tirer parti du riche écosystème tout en maintenant un support et une gouvernance solides.

Cependant, leur adoption exige une modification des processus. Intégrer WAF, gateways, API, contrôles IA demande que les équipes de développement comprennent ce qui doit être validé, comment déployer, et quels blocages doivent exister avant la mise en production. Les équipes sécurité doivent passer d’un rôle de relecture en fin de cycle à la définition de politiques réutilisables. Les équipes plateforme doivent concevoir des templates facilitant l’alignement avec ces bonnes pratiques.

Le vrai enjeu réside dans le fait que ce partenariat ne consiste pas simplement à ajouter une nouvelle couche d’outils, mais à rapprocher sécurité, livraison d’applications et charges IA dans une plateforme unique. Face à la montée en puissance des agents et applications intelligentes, cette intégration peut faire la différence entre une adoption maîtrisée ou une accumulation de pilotes difficiles à sécuriser.

L’IA accélère la modernisation des applications tout en révélant des vulnérabilités dans les API, permissions, données et opérations cloud native . La collaboration F5 / Red Hat s’inscrit dans cette vision : déployer rapidement ne suffit pas, il faut le faire dans des architectures capables d’être défendues, auditées et maintenues.

Questions fréquentes

Qu’ont annoncé F5 et Red Hat ?
F5 a enrichi son offre pour Red Hat OpenShift avec F5 WAF pour NGINX sur NGINX Gateway Fabric, ainsi que des quickstarts IA pour Red Hat OpenShift AI.

Que propose F5 WAF pour NGINX dans OpenShift ?
Une protection de couche 7 intégrée pour les applications et API dans Kubernetes, gérée de façon déclarative et adaptée aux flux DevOps.

Quel rôle joue NGINX Gateway Fabric ?
Il sert de fondation pour gérer le trafic et les gateways dans Kubernetes, facilitant l’intégration de capacités de sécurité et de diffusion applicative dans un contexte cloud native.

Pourquoi cela est-il crucial pour les applications IA ?
Car ces applications se connectent à des données, des API et des outils internes, générant des risques liés aux fuites d’informations, injections, usage non autorisé ou expositions de données sensibles.

via : f5.com

le dernier