IA locale en l’entreprise : ainsi s’intègrent Ollama et SoaxNG pour combiner souveraineté des données et puissance cloud

L'essor des LLM open source : vers une intelligence artificielle plus démocratique et durable

La question la plus fréquemment posée lors des comités technologiques en 2025 n’est plus « quel modèle utiliser », mais « où déployer l’IA ». Entre latences, coûts par token, conformité réglementaire et fuites de données, de plus en plus d’organisations explorent une exécution locale de modèles linguistiques avec un support cloud élastique pour faire face aux pics et aux nouveaux cas d’usage. Sur cette zone intermédiaire se situe la proposition de SoaxNG — la couche d’orchestration de OASIX Cloud (Groupe Aire), basée sur OpenStack — pour déployer Ollama avec Open WebUI, combinant confidentialité sur site et scalabilité.

L’objectif : des écosystèmes hybridesles données sensibles restent sous contrôle direct, tandis que l’infrastructure cloud apporte capacité et résilience lorsque le besoin se fait sentir.


Ce que Ollama apporte dans les environnements SoaxNG

Ollama est devenu le « runtime local » de référence pour les modèles GGUF (format quantifié qui réduit la mémoire et le coût d’inférence), grâce à sa simplicité opérationnelle : téléchargement, exécution et échange. En contexte professionnel, cette simplicité se renforce par son intégration avec SoaxNG, qui fournit l’orchestration, l’isolement et la gestion du cycle de vie des conteneurs.

Pourquoi ajouter Open WebUI ?

  • Adoption accrue. Open WebUI propose une interface visuelle qui élimine la dépendance à la ligne de commande, essentielle pour démocratiser l’IA au-delà des équipes techniques : juridique, marketing, service client ou opérations peuvent tester, itérer et partager sans ouvrir de terminal.
  • Collaboration. Historique des conversations, modèles de prompts, chargement de documents (PDF/images) avec OCR et ajustements par modèle (température, top-p, taille du contexte) facilitent la standardisation des flux.
  • Extensibilité. Depuis la UI, il est possible de télécharger/gerer des modèles, de configurer ports/IP du serveur et d’activer des modules d’embeddings ou de vision si disponibles.

Architecture de déploiement : conteneurs, profils et persistance

Le mode de déploiement recommandé est containerisé :

  • Isolation des ressources. Chaque instance d’Ollama fonctionne dans un conteneur indépendant avec une attribution précise de CPU/GPU. SoaxNG gère cela via son moteur d’orchestration sur OpenStack, permettant une multi-locataire effective et une séparation entre développement et production.
  • Scalabilité. SoaxNG auto-ajuste les ressources et les répliques en période de pics d’inférence. Pour des modèles plus lourds, on attribue des profils dotés de GPU et de mémoire adaptée au contexte.
  • Persistance. Les volumes sont connectés aux Systèmes Flash Scale Premium d’OASIX, assurant que les modèles GGUF > 100 GB soient stockés et servis sans goulet d’étranglement.

Stack typique (via Docker Compose avec profils CPU/GPU) :

  1. Ollama Coreruntime pour modèles GGUF.
  2. Open WebUI — interface de gestion unifiée et chat.
  3. Nginxreverse proxy avec TLS et load balancing.

Modèles supportés et profils de ressources

SoaxNG propose des profils préconfigurés pour accélérer la mise en œuvre avec les principales familles de modèles :

Modèle vCPU min. RAM min. Stockage Cas d’usage principal
DeepSeek-R1 8 32 GB 150 GB Raisonnement et Analyse
Llama 3.2 4 16 GB 45 GB Génération de texte générale
CodeLlama-70B 12 64 GB 85 GB Soutien au développement
LLaVA-1.6 6 24 GB 35 GB Vision et Documentation

Remarque : Les exigences dépendent de la taille/quantité, du contexte et du débit souhaité. Le catalogue de modèles GGUF s’étoffe chaque semaine ; en entreprise, il est crucial de standardiser les profils selon le niveau de service (latence, concurrence) et la sensible des données.


Cas d’usage déjà rentable

1) Cybersécurité automatisée (SOC)

  • Playbooks automatiques : génération de procédures de réponse (IR) face à de nouveaux CVE, mappés sur MITRE ATT&CK.
  • Forensique accélérée : ingestion de 1 TB/jour de logs pour détecter des motifs APT et faire des corrélations.
  • Simulation : scénarios d’attaque réalistes pour entraîner les red teams et tester les contrôles.

2) Automation des processus

  • Traitement documentaire : extraction de clauses dans des contrats (vision + texte).
  • Suivi réglementaire : veille sur ENISA/RGPD et évolutions réglementaires, avec alertes et résumés.
  • Documentation technique : génération de manuals et procédures avec validation par des équipes transversales.

3) DevOps intelligent

  • Code sécurisé : analyse statique/dynamique avec suggestions de correction.
  • Optimisation : recommandations d’échelle selon la télémétrie et les coûts.
  • Gestion des incidents : classification des tickets et RCA préliminaire pour réduire le MTTR.

Sécurité et gouvernance : Zero-Trust et conformité

L’adoption de l’IA locale ne doit pas se faire sans une architecture de confiance minimale et des contrôles conformes aux normes européennes.

Zero-Trust « pré-intégration »

  • Cryptage homomorphe lors des flux d’inférence avec des données sensibles (santé, finances).
  • NVIDIA Confidential Computing : TEE GPU pour isoler modèles et vecteurs d’attaque.
  • RBAC granulaire : permissions par modèle/prompt/output et traçabilité.

Conformité

  • ENS Alto pour administrations publiques en Espagne.
  • RGPD – Art. 35 : DPIA pré-configurée pour traitements avec données personnelles.
  • ISO 27001/27017 : gestion sécurisée et contrôles en cloud.
  • Audits réguliers : modèles de conformité pour déceler écarts et améliorer.

Open WebUI : menu détaillé pour les équipes non techniques

  • Accueil et authentification. Création du premier administrateur avec gestion de la bases de données et configuration. Supporte le SSO d’entreprise.
  • Sélection de modèles. Catalogue de modèles téléchargés avec option d’ajout/suppression et de test sans quitter l’interface.
  • Chat principal. Zone centrale avec conversations multiples et historique. Utile pour playbooks, Q&A interne et tests guidés.
  • Paramètres de connexion. IP/port du serveur, taille du contexte, température, top-p, etc.
  • Audio et images. Entrée via microphone, analyse ou génération d’images si le modèle le supporte.
  • OCR et documents. Import de PDF/images pour extraire du texte et interroger dans le contexte.
  • Modèles de prompt. Bibliothèque réutilisable pour standardiser les tâches.
  • Recherche sur Internet. Selon paramètres ; utile lorsque l’actualité importe.

Pourquoi « local + cloud » constitue une décision stratégique

  1. Souveraineté et confidentialité. L’IA locale évite d’envoyer des données sensibles à des tiers. Avec SoaxNG, le contrôle demeure sur site ou en cloud privé, tout en permettant d’étendre vers OASIX Cloud si nécessaire pour renforcer la puissance.
  2. Latence et coûts. Réduire les sauts réseaux diminue la latence et les coûts par requête. Pour les charges récurrentes (RAG interne, classification, extraction), le modèle résident est souvent plus performant.
  3. Conformité. Stocker données et logs en juridiction UE simplifie le respect du RGPD, des normes ENS et facilite les audits (ISO).
  4. Évolutivité. Le cloud gère les pics d’activité et facilite l’expérimentation sans mettre en péril la sécurité des données. Le point clé : maîtriser le périmètre et assurer la visibilité.

Bonnes pratiques pour la mise en production

  • Démarrer avec un cas précis (ex. : assistant interne basé sur FAQ ou traitement d’un type spécifique de documents).
  • Définir des profils CPU/GPU et SLO (latence, throughput, fenêtre de contexte) par modèle.
  • Tracer prompts/outpouts en activant des logs sous protection et avec des rétentions claires.
  • Human-in-the-loop. Mettre en place une revue pour les tâches sensibles (juridique, conformité, client).
  • Evaluer régulièrement (qualité, biais, dérive), avec des datasets de validation et des métriques d’exactitude et d’utilité.
  • Gérer les secrets et leur rotation : identifiants, clés d’accès, stockages internes.
  • Plan de continuité : rollback, snapshots, restauration des volumes et récupération post-incidents.

Adoption en Espagne : une voie vers la souveraineté digitale

Pour les organisations espagnoles, la combinaison Ollama + SoaxNG ouvre une voie pragmatique vers l’IA générative tout en préservant la souveraineté : installation simplifiée, gestion visuelle et contrôles de sécurité avec des certifications ENS/ISO facilitant la commande publique et les audits. L’approche hybride — local pour protéger et cloud pour scaler — apparaît aujourd’hui comme la plus réaliste pour une mise en valeur rapide.


Conclusion

La convergence entre IA locale et cloud n’est plus un débat philosophique : c’est une architecture opérationnelle. Ollama diminue la friction pour exécuter des modèles près des données ; Open WebUI rapproche l’IA de toute l’organisation ; SoaxNG apporte la structure (orchestration, profils, persistance, sécurité) indispensable à un environnement professionnel. Si l’objectif est d’accélérer sans perdre le contrôle, c’est une base solide.

Et le prochain pas ? Choisir un cas pilote, définir des indicateurs de succès et mesurer les résultats. La réussite ne dépendra pas du modèle le plus volumineux, mais de la capacité à en faire des processus répétables, améliorant à la fois la performance et la conformité.


Questions fréquentes

Quels sont les avantages d’exécuter des LLM avec Ollama versus utiliser un service externe ?
Une latence réduite, des coûts mieux prévisibles et un contrôle accru des données. C’est crucial pour les données sensibles, la réglementation ou la personnalisation des modèles sans exposer prompts ou outputs à des tiers.

Puis-je commencer sans GPU ?
Oui. De nombreux modèles GGUF fonctionnent en CPU pour des prototypes ou cas légers. Pour de la concurrence ou des contextes étendus, une GPU accélère notablement. SoaxNG supporte des profils selon le besoin.

Comment s’assurer de la sécurité et de la conformité ?
Avec du Zero-Trust (RBAC précis, isolement, TEE GPU), du chiffrage et des outils de conformité (ENS, RGPD avec DPIA, ISO 27001/27017). La traçabilité des prompts et outputs facilite les audits.

Quels modèles débuter ?
Selon l’usage : Llama 3.x pour assistants et texte peu spécialisé, DeepSeek-R1 pour raisonnement, CodeLlama pour développement, et LLaVA pour documents/vision. La clé réside dans l’ajustement de la quantification et du contexte au SLO recherché.

le dernier