Le discours sur l’intelligence artificielle en entreprise évolue vers une nouvelle phase. Ces dernières années, de nombreuses sociétés ont expérimenté avec des modèles, des assistants et de l’analytique avancée dans des environnements isolés. Cependant, lorsque l’IA passe en production, le débat ne tourne plus autour du choix du modèle, mais se concentre sur quelque chose de beaucoup plus complexe : comment assurer un accès sécurisé, fiable et gouverné aux données, là où elles se trouvent déjà.
Dans ce contexte, Cloudera a annoncé l’extension de son offre pour permettre à une partie de sa plateforme d’inférence et d’analytique d’être également en local, c’est-à-dire dans les centres de données du client. La société a communiqué le 9 février 2026 que Cloudera AI Inference et Cloudera Data Warehouse avec Trino seront disponibles pour des déploiements sur site, tout en intégrant des améliorations dans Cloudera Data Visualization pour « tisser » des flux de travail IA et analytique entre le cloud, l’edge et le centre de données (CPD).
Ce mouvement vise à répondre à une tension devenue évidente lors de la dernière vague de projets : déplacer des données sensibles dans le cloud pour alimenter des modèles peut augmenter le risque, l’exposition réglementaire et souvent générer plus de frictions opérationnelles. Le message de Cloudera met donc l’accent sur une approche inverse : faire avancer l’IA vers les données, plutôt que de déplacer les données vers l’IA.
De l’IA « pilote » à l’IA « industrielle » : gouvernance et sécurité comme clés du succès
Cloudera encadre son annonce dans une idée souvent évoquée dans les comités de direction et les départements de gestion des données : lorsque l’IA s’intègre dans des processus critiques, la priorité devient l’accès gouverné à l’information. La société cite son rapport « The State of Enterprise AI and Data Architecture » en soulignant que près de la moitié des entreprises stocke leurs données dans un data warehouse, ce qui renforce l’importance de garantir que les applications IA puissent y accéder sans sortir du périmètre sécurisé.
Concrètement, cette promesse est attrayante pour des secteurs réglementés (finances, santé, industrie, administrations) : réduction des mouvements de données, moins de points aveugles et une surface de risque mieux maîtrisée. À cela s’ajoute un autre facteur, de plus en plus crucial dans les budgets : la nécessité de maintenir des coûts maîtrisés lorsque l’IA quitte le stade expérimental pour devenir un service opérationnel continu, consommant des ressources en permanence.
Cloudera AI Inference en local : inférence avec la pile NVIDIA dans le centre de données
Le communiqué présente Cloudera AI Inference comme un composant permettant de déployer et de faire évoluer des modèles directement dans le centre de données. La société souligne que cette couche repose sur la technologie de NVIDIA et permet d’exécuter tout type de modèle IA, y compris les modèles open source NVIDIA Nemotron, couvrant des cas comme LLM, détection de fraude, vision par ordinateur ou reconnaissance vocale.
En matière d’infrastructure et de déploiement, Cloudera évoque l’accélération grâce à la pile NVIDIA et l’utilisation de GPUs NVIDIA Blackwell, associée à NVIDIA Dynamo-Triton Inference Server et NVIDIA NIM microservices pour un service de modèles à haut rendement et évolutif.
Le discours qui accompagne cette stack est double : d’une part, une économie plus prévisible en évitant la volatilité des coûts souvent associée au cloud lorsque l’inférence devient permanente ; d’autre part, un contrôle de la latence, de la conformité et de la confidentialité, en maintenant les données et l’exécution dans le périmètre du centre de données.
Data Warehouse avec Trino dans le centre de données : une couche pour accélérer les requêtes sans perdre le contrôle
Le second pilier de l’annonce est Cloudera Data Warehouse avec Trino, également disponible pour des déploiements en local. L’approche s’inscrit particulièrement dans les architectures hybrides : centraliser sécurité, gouvernance et observabilité autour du « data estate » (l’ensemble des données d’entreprise) tout en accélérant l’accès aux insights.
Cloudera présente cette évolution comme une façon de transformer des données complexes en résultats exploitables sans compromettre la sécurité, la conformité ou l’opérationnel. Dans un contexte où beaucoup d’entreprises évoluent entre plusieurs clouds, l’edge et des infrastructures héritées, cette promesse répond à un problème concret : le coût de la gestion de données dispersées, aux politiques inconsistantes et à la visibilité limitée.
Cloudera Data Visualization renforcée par des fonctions d’IA : résumés automatiques et traçabilité
En complément de l’inférence et du data warehouse, Cloudera annonce des améliorations dans Cloudera Data Visualization visant à simplifier les workflows axés sur l’IA et à enrichir l’analyse dans le centre de données et au-delà. Parmi les nouveautés :
- Annotation IA : génération instantanée de résumés et d’aperçus contextuels pour graphiques et visualisations, évitant la rédaction manuelle.
- Fonctions IA plus résilientes : gestion des incidents transitoires et analyse d’utilisation pour la surveillance et l’optimisation.
- Traçabilité des requêtes IA : chaque interrogation enregistre l’identifiant du message, la marque temporelle et la question, pour garantir transparence et permettre la résolution de problèmes.
- Gestion simplifiée : attribution facilitée des rôles d’administration via des paramètres configurables, afin d’accélérer les scénarios basés sur le SSO, sans credenciales « hardcodées » ni promotion manuelle des utilisateurs.
Dans un environnement où les données sont gouvernées, la traçabilité n’est plus un détail : c’est une exigence pour l’audit, la conformité et pour expliquer comment certains résultats sont générés, notamment lorsque l’IA intervient dans le reporting ou les décisions sensibles.
Déclarations : contrôle et flexibilité comme message principal
Leo Brunnick, Chief Product Officer chez Cloudera, encadre cette annonce comme une façon d’offrir à ses clients plus de contrôle et de flexibilité, en leur permettant de déployer inférence, data warehouse avec Trino et visualisation là où résident les données critiques, sans sacrifier la sécurité ou l’efficacité opérationnelle.
De son côté, Pat Lee, vice-président des partenariats stratégiques chez NVIDIA, souligne que cette collaboration permet de faire évoluer l’inférence avec Blackwell, Dynamo-Triton et NIM, en promettant de conjuguer contrôle, économie prévisible et efficacité en centre de données.
Prochaine étape : DeveloperWeek et focus sur l’open lakehouse
Cloudera intensifie également sa présence lors de DeveloperWeek (18-20 février 2026), où elle prévoit d’organiser une session sur la conception d’une architecture open lakehouse cloud-native basée sur Apache Iceberg. La tendance indique que le marché recherche de plus en plus des architectures ouvertes et portables, capables d’allier gouvernance, performance et flexibilité sans enfermer l’entreprise dans un seul modèle de déploiement.
Questions fréquentes
Que signifie “inférence IA en local” et pourquoi cela intéresse-t-il les entreprises avec des données sensibles ?
Cela consiste à exécuter la inférence (service de modèles) directement dans le centre de données, afin de garder les données et le traitement dans des environnements contrôlés, réduisant ainsi les risques de conformité et évitant de déplacer des données critiques en dehors du périmètre de l’entreprise.
Que apporte Cloudera Data Warehouse avec Trino en centre de données par rapport à une approche purement cloud ?
Selon Cloudera, cela accélère l’accès aux insights tout en maintenant une sécurité, une gouvernance et une observabilité centralisées, surtout lorsque les données et charges de travail sont dispersées entre cloud, edge et centre de données.
Quel rôle jouent NVIDIA Blackwell, Triton et NIM dans cette annonce ?
Cloudera affirme que son AI Inference s’appuie sur la pile NVIDIA, incluant les GPU Blackwell, Dynamo-Triton Inference Server et microservices NIM, pour offrir un déploiement de modèles performant et évolutif en environnement d’entreprise.
Pourquoi la traçabilité des requêtes IA dans la visualisation et l’analytique devient-elle cruciale ?
Parce qu’elle permet d’auditer ce qui a été demandé, quand et dans quel contexte, ce qui est essentiel pour la conformité, la transparence et la résolution des incidents lorsque l’IA intervient dans les reportings ou décisions sensibles.