Snowflake accélère l’IA agissante en entreprise : intelligence conversationnelle, données ouvertes et nouveaux outils pour déployer des agents à grande échelle

Snowflake renforce sa collaboration avec ses partenaires pour stimuler l'ère de l'AI Data Cloud

Snowflake a dévoilé une série de nouveautés visant un objectif clair : amener l’Intelligence Artificielle agentique là où se trouvent les données (et non l’inverse) et réduire de plusieurs mois à quelques semaines le délai nécessaire à une organisation pour faire passer une idée à un agent opérationnel et gouverné. La société du AI Data Cloud met à disposition générale Snowflake Intelligence — son agent d’entreprise —, consolide son lakehouse avec Horizon Catalog et Openflow, et lance une suite d’outils pour développeurs qui unifie création, tests et déploiement d’applications d’IA au sein d’une plateforme unique et sécurisée.

Ce mouvement n’est pas anodin. Snowflake assure qu’en seulement trois mois, plus de 1 000 clients ont utilisé Snowflake Intelligence pour déployer plus de 15 000 agents en production — des noms comme Cisco, Toyota Motor Europe, TS Imagine ou l’équipe de Bobsled/Skeleton des États-Unis figurent parmi les pionniers. Pour Christian Kleinerman, vice-président exécutif Produit, il s’agit de l’évolution logique d’une décennie : “Snowflake a été le pilier de la stratégie de gestion des données de milliers d’entreprises. L’étape suivante est de porter l’IA à ces données pour permettre à chaque client de débloquer une intelligence propre. Nous démocratisons le pouvoir de l’IA pour que chaque employé puisse prendre de meilleures décisions, plus rapidement.”

Snowflake Intelligence : un agent pour poser les questions “quoi” et comprendre le “pourquoi”

En disponibilité générale, Snowflake Intelligence couvre une base de plus de 12 000 clients aspirant à devenir la interface naturelle vers la connaissance métier. La promesse : avec une question en langage naturel, l’agent enquête, raisonne sur le contexte et retourne des recommandations appuyées par les données gouvernées de l’organisation.

Sous le capot, l’entreprise s’appuie sur des modèles de secteur leaders (dont Anthropic) et ajoute ses propres recherches pour la performance et la validation. Snowflake affirme que les nouvelles optimisations font que la conversion texte→SQL est jusqu’à trois fois plus rapide, en maintenant la précision. De plus, elle présente Agent GPA (Goal, Plan, Action), un cadre d’évaluation qui détecte jusqu’à 95 % des erreurs lors de tests avec des jeux de données standards, avec des “niveaux presque humains” de détection. Le but n’est pas tant d’éblouir au premier essai que de réduire l’incertitude : moins de réponses douteuses, plus de traçabilité et de confiance dans les environnements régulés.

La sécurité et la gouvernance ne sont pas un supplément : elles sont la conception de base. Snowflake Intelligence respecte les permissions et politiques, travaille dans le périmètre du AI Data Cloud et évite la sortie de données vers des domaines non autorisés. Pour Thierry Martin, directeur des Données et de l’IA chez Toyota Motor Europe, l’impact est tangible : “Nous avons réduit le déploiement des agents de mois en semaines. Notre équipe écrit moins de code et consacre plus de temps à ce qui compte vraiment : le contexte métier et les modèles sémantiques. Le résultat est un avantage concurrentiel : nous lançons des solutions sécurisées et conformes plus rapidement et sans déplacer les données.”

Lakehouse d’entreprise : données ouvertes, connectées et sans dépendance fournisseur

La seconde composante de l’annonce concerne la consolidation du lakehouse de Snowflake en tant que plateforme pour une IA agentique. La société généralise Openflow — le moteur qui automatise l’intégration et l’orchestration de données depuis quasiment n’importe quelle source — et renforce Horizon Catalog — le catalogue unifié qui offre contexte sémantique, sécurité et gouvernance transverse à différentes régions, clouds et formats.

Pour éliminer les frictions entre écosystèmes, Snowflake intègre directement dans Horizon les API ouvertes Apache Polaris™ (en incubation) et le REST Catalog d’Apache Iceberg™. Concrètement, cela offre aux clients un lakehouse d’entreprise centralisant la gouvernance et l’accès interopérable à des formats ouverts de table. En pratique ? Moins de “ponts ad hoc” entre catalogues, moins d’enfermement fournisseur, et davantage de liberté pour que les agents exploitent les données là où elles résident, avec des politiques cohérentes.

Des avancées orientées vers des cas en temps (presque) réel complètent le tableau :

  • Tables et stockages interactifs (version privée) : pour expériences quasi en temps réel avec agents et applications.
  • Analyse en flux (version prochaine en privé) : pour agir en secondes sur des données en direct, en combinant avec l’historique dans des scénarios de fraude, personnalisation, recommandations ou observation/IoT.
  • CDC quasi en temps réel depuis Oracle (version privée), construit sur Openflow, qui favorise des mises à jour transactionnelles continues vers le Snowflake AI Data Cloud.

Pour renforcer la résilience, la Business Continuity et Disaster Recovery (version publique) s’étend aux tables Iceberg gérées, offrant une sauvegarde supplémentaire face aux incidents. Et, après l’acquisition de Crunchy Data, Snowflake annonce Snowflake Postgres (prochainement en preview publique) : un Postgres entièrement géré dans la plateforme, avec pg_lake (déjà disponible en open source), un ensemble d’extensions pour intégrer Postgres au lakehouse. Une indication claire vers la direction prise par le tissu des données d’entreprise : formats ouverts, compatibilité nativement intégrée et catalogue commun.

Outils pour développeurs : de l’idée à l’agent dans une plateforme unique

La troisième pierre de l’annonce est une suite d’outils de développement conçue pour réduire la friction dans le cycle concevoir–tester–déployer des applications IA.

  • Cortex Code (version privée) : assistant IA renforcé dans l’UI de Snowflake permettant d’interagir avec tout l’environnement en langage naturel. Il aide à comprendre, à optimiser les requêtes complexes et à ajuster les résultats pour économiser des coûts.
  • Cortex AISQL (disponible en version générale) : amène pipelines d’inférence IA en SQL déclaratif dans Dynamic Tables. Avec AI Redact (prochainement en preview), il détecte et masque les données sensibles dans contenus non structurés, permettant de créer des jeux de données multimodaux avec sécurité et confidentialité.
  • Workspaces (GA) : l’environnement de développement centralisé de Snowflake intègre désormais Git (GA) et VS Code (GA). Résultat : collaboration réelle, versionnage et possibilité de travailler dans l’IDE préféré sans quitter la plateforme.
  • dbt Projects sur Snowflake (GA) : développement, tests, déploiement et monitoring de dbt directement dans Snowflake, réduisant outils et tâches auxiliaires. Pour le code existant, Snowpark Connect for Apache Spark (GA) permet d’exécuter des workloads Spark sur le moteur sécurisé de Snowflake sans réécritures massives.

Le fil conducteur est clair : fusionner le travail dans une plateforme gouvernée pour accélérer la livraison et réduire le coût total de possession (TCO). Si les données ne se déplacent pas, alors les permissions et la traçabilité voyagent avec le code.

Ce qui change pour le directeur informatique et les équipes Data (en trois idées)

1) D’indicateurs statiques à des conversations avec les données. Avec Snowflake Intelligence, l’accès passe de “consulter un rapport” à “questionner et raisonner”. La valeur réside moins dans le tableau de bord statique et plus dans l’explication (le “pourquoi”) avec contexte d’entreprise et contrôles en place.

2) Lakehouse véritablement interopérable. Avec Horizon et Openflow, intégrant Polaris et Iceberg REST, le catalogue devient une autorité centrale pour gouvernance et sécurité sur formats ouverts. Ceci permet de déployer une IA agentique qui voit et comprend des données variées sans reconstituer de nouvelles pipelines.

3) Une chaîne d’outils plus courte, moins de dette technique. Workspaces, AISQL, dbt et Snowpark Connect pour Spark signifient moins de sauts entre outils, moins d’intégration bricolée, et plus de répétabilité. La standardisation n’élimine pas la flexibilité : elle la canalise.

Cas d’utilisation à impact immédiat

  • Relation client : un agent dialogue avec l’historique des tickets, les politiques et la connaissance interne ; il répond au quoi et au pourquoi, et suggère la prochaine étape.
  • Risque et fraude : traitement streaming avec contexte historique pour décider en secondes ; la gouvernance du catalogue limite les faux positifs dus à biais d’échantillonnage.
  • Opérations et IoT : corrélations de télémétrie en direct avec maintenance et optimisation des stocks ; alertes et explications auditées par une équipe.
  • Finance/FP&A : requêtes complexes texte→SQL plus rapides ; simulations dans des tableaux interactifs sans devoir reconstruire tout le pipeline.

Une touche culturelle : démocratiser avec responsabilité

Snowflake insiste sur le verbe démocratiser. Mais “démocratiser” ne signifie pas “sans gouvernance”. L’annonce repose sur trois garanties :

  • Identité et permissions : l’agent ne voit que ce qu’il doit.
  • Traçabilité : enregistrement de plan–action (Agent GPA), des données utilisées et des résultats.
  • Formats ouverts : interopérer pour éviter des dépendances aveugles.

Une IA agentique sans ces trois piliers serait un prototype séduisant ; avec eux, elle devient une opération d’entreprise.

Feuille de route remarquable

  • GA : Snowflake Intelligence, Openflow, améliorations Horizon ; Cortex AISQL et Dynamic Tables ; Workspaces avec Git et VS Code ; dbt Projects ; Snowpark Connect pour Apache Spark.
  • Avant-première publique : Business Continuity & DR pour Iceberg géré ; Snowflake Postgres (bientôt disponibilité).
  • Préversion privée : Tables et Stockages interactifs ; Analyse en flux ; CDC Oracle basé sur Openflow ; Cortex Code ; AI Redact dans AISQL.
  • Général : pg_lake (open source).

Les petits caractères que les clients questionneront

  • Ce système fonctionne-t-il avec mes sources et catalogues existants ? L’intégration avec Polaris et Iceberg REST diminue la friction avec des formats ouverts.
  • Qu’en est-il de la confidentialité ? AI Redact vise à masquer les sensibles dans le texte, image, audio avant inférence, et Horizon impose des politiques.
  • Et les coûts ? Cortex Code et les optimisations en AISQL/Dynamic Tables favorisent des requêtes plus efficaces ; le TCO dépend de l’usage, mais moins d’outils et moins de mouvements de données tendent à diminuer la facture opérative.
  • Comment démarrer ? Workspaces et dbt Projects permettent une migration progressive : en premier la gouvernance et le catalogue, puis les agents sur les datasets à forte valeur.

Questions fréquentes

Qu’est-ce que Snowflake Intelligence et comment s’intègre-t-elle dans une stratégie d’entreprise ?
C’est un agent d’entreprise permettant de questionner en langage naturel et d’obtenir des réponses traçables basées sur des données gouvernées. Résolvant des requêtes complexes (texte→SQL) ou des explications du “pourquoi” d’une métrique, tout en respectant permissions et politiques. Elle est disponible en général pour la clientèle de Snowflake.

Comment Horizon Catalog et Openflow facilitent-ils la préparation des données pour l’IA agentique ?
Horizon apporte catalogue unifié, contexte sémantique et gouvernance transversale entre clouds et régions ; Openflow automatise l’intégration et l’ingestion depuis multiples sources. La combinaison avec Polaris et Iceberg REST centralise la sécurité et l’accès à des formats ouverts, éliminant les ponts fragiles et réduisant la dépendance fournisseur.

Quelles nouvelles facilités offrent les outils aux développeurs pour créer et déployer des agents ?
Cortex Code (assistant IA dans l’UI), Cortex AISQL (pipelines déclaratifs avec Dynamic Tables), AI Redact (masquage des sensibles), Workspaces avec Git/VS Code, dbt Projects dans Snowflake, et Snowpark Connect pour Spark pour des workloads existants. Toutes ces fonctionnalités évoluent dans un environnement gouverné et avec gestion de versions.

Quelle est la portée de la compatibilité avec Apache Iceberg, Polaris et Postgres ?
Elle permet un lakehouse d’entreprise véritablement interoperable : tables ouvertes avec Iceberg, catalogue ouvert avec Polaris, et Postgres géré dans Snowflake, sans oublier pg_lake en open source. Résultat : une gouvernance centralisée et une flexibilité dans le choix des outils, sans dépendances excessives.

le dernier