Palo Alto Networks et Google Cloud ont annoncé une extension de leur collaboration stratégique avec un objectif clair : permettre aux entreprises d’accélérer leurs projets de cloud et d’intelligence artificielle — y compris l’IA agente, capable d’agir de manière plus autonome — sans transformer chaque déploiement en une nouvelle source de risque. Cette démarche intervient à un moment où la sécurité cesse d’être « une étape finale » pour devenir une exigence préalable : elle se construit d’abord avec des contrôles, puis se déploie à grande échelle.
Cette annonce combine deux éléments qui, en 2026, seront déjà indissociables dans de nombreuses organisations : l’infrastructure IA (où les modèles sont entraînés et exécutés) et la sécurité qui l’entoure (du code et de la chaîne d’approvisionnement jusqu’à l’exécution en production). Sur le papier, cette alliance repose sur l’intégration de Prisma AIRS, la plateforme de sécurité IA de Palo Alto Networks, avec des services Google Cloud dédiés à l’IA, comme Vertex AI et Agent Engine, pour couvrir tout le cycle, du développement à l’exploitation de charges réelles.
Ce que cela change pour les clients : sécurité « de bout en bout » et réduction de la friction opérationnelle
La promesse principale est de réduire le fossé habituellement observé entre « ce que crée l’équipe produit » et « ce que l’équipe sécurité peut contrôler ». Concrètement, les entreprises adoptent une approche de code à cloud : protéger les données et les charges IA sur Google Cloud, tout en sécurisant des outils clés du cycle de développement, comme le Agent Development Kit (ADK).
Dans la pratique, cette offre se traduit par des capacités ciblant les points faibles des projets IA :
- Gestion de la posture IA pour la visibilité et le contrôle de la configuration.
- Sécurité en temps réel pour détecter et interrompre tout abus en production.
- Sécurité des agents (car un agent n’est pas qu’une application ; il prend également des décisions et exécute des actions).
- Red teaming pour des tests proactifs.
- Sécurité des modèles pour l’analyse et l’évaluation des vulnérabilités.
Le message s’appuie sur une donnée analysée par Palo Alto Networks dans son State of Cloud Report (publié en décembre 2025) : 99 % des répondants auraient subi au moins une attaque contre leur infrastructure IA au cours de l’année écoulée. Cela illustre à quel point la course au déploiement de l’IA a élargi la surface d’attaque.
Au-delà de l’IA : pare-feu, SASE et l’écosystème Google
L’alliance ne se limite pas à la protection des modèles. Elle intègre également une dimension classique — mais essentielle — du « comment se connecte et inspecte » le trafic dans les environnements hybrides et multicloud :
- VM-Series (pare-feu logiciel) avec des intégrations plus avancées pour garantir des politiques de sécurité cohérentes lors de la migration ou de l’expansion sur Google Cloud.
- Renforcement de l’approche SASE avec Prisma SASE et Prisma Access, exploitant le réseau de Google pour améliorer l’expérience utilisateur et maintenir un contrôle de sécurité lorsque les accès se répartissent entre sites physiques, télétravail et applications cloud.
Au fond, c’est un pari sur la plateformisation : moins de silos, plus d’intégration validée dès la fabrication, et une console unifiée pour réduire les coûts opérationnels qui explosent souvent lorsque chaque couche est achetée et intégrée séparément.
L’impact économique : un accord pluriannuel estimé à près de 10 milliards de dollars
Ce qui rend également cette annonce stratégique pour le marché, c’est sa dimension économique. Plusieurs médias, citant Reuters, rapportent qu’un accord pluriannuel pourrait atteindre près de 10 milliards de dollars sur sa durée, même si aucune somme officielle n’a été communiquée dans le communiqué des entreprises.
De plus, le partenariat comporte une dimension stratégique : Palo Alto Networks migrera des charges internes importantes vers Google Cloud dans le cadre de cet accord. Il inclut également l’utilisation de Vertex AI et des modèles Gemini pour alimenter des copilotes. Cette démarche, qui consiste à « acheter aussi ce qu’on utilise », est souvent perçue comme un signe d’alignement profond : il ne s’agit pas seulement de vendre en bundle, mais d’opérer avec une même base technologique.
Pourquoi maintenant : l’IA agentique nécessite une confiance vérifiable
L’IA agentique modifie la nature des risques. Si un modèle génère du texte, le problème réside souvent dans la réponse. Si un agent peut agir — créer des tickets, modifier des configurations, lancer des achats, déplacer des données — le risque est plus proche de donner des identifiants à un « nouvel utilisateur » software, avec toutes les implications de sécurité que cela comporte.
C’est pourquoi les deux entreprises insistent sur « réduire la friction » entre développement et sécurité, et sur construire des contrôles natifs tout au long du cycle de vie de l’IA. L’objectif implicite étant que les conseils d’administration cessent de se demander « Peut-on faire de l’IA sans mettre en danger la sécurité ? » pour commencer à s’interroger sur « Quels cas d’usage prioriser, car nous pouvons l’opérer en toute sécurité ? »
Source : palo alto networks