La course pour déployer une intelligence artificielle générative dans les environnements professionnels entre dans une nouvelle phase. Il ne suffit plus de lancer des copilotes, des assistants ou des flux automatisés : il est désormais essentiel de prouver la fiabilité de ces systèmes, leur conformité aux attentes et la possibilité d’auditer leurs réponses. Dans ce contexte, Gartner prévoit que l’importance croissante de l’explicabilité de l’IA, connue sous le nom d’XAI (Explainable AI), conduira à ce que les investissements en observabilité des grands modèles de langage atteignent 50 % des déploiements de GenAI d’ici 2028, contre 15 % actuellement.
Cette prévision reflète une transformation profonde dans la manière dont les entreprises comprennent et approchent l’IA. Lors de la première vague d’adoption, l’accent était mis sur l’expérimentation des capacités, le lancement de pilotes et la mesure des gains de productivité. Mais à mesure que ces systèmes prennent en charge des tâches plus sensibles, l’attention se déplace vers la confiance : pourquoi un modèle répond-il d’une certaine manière, quels sont les données sur lesquelles il s’appuie, quels biais présente-t-il, comment évolue son comportement, et dans quelle mesure peut-on continuer à l’utiliser en toute sécurité en production.
De l’expérimentation au contrôle effectif en production
La recommandation de Gartner met en lumière un problème de plus en plus visible en entreprise : l’IA s’introduit dans les environnements métier plus rapidement que les mécanismes de supervision ne peuvent évoluer. Lorsqu’un modèle est utilisé pour résumer des rapports internes, assister les employés ou automatiser des tâches à faible impact, les erreurs restent potentiellement tolérables. Mais dès lors qu’il intervient dans des processus critiques, le service client, l’analyse documentaire, le conseil interne ou la génération de contenus sensibles, l’absence de traçabilité devient un risque opérationnel, réputationnel et réglementaire majeur.
C’est pourquoi Gartner affirme qu’en l’absence d’une base solide en XAI et en observabilité, de nombreuses initiatives de GenAI resteront confinées à des tâches peu risquées, internes ou facilement vérifiables. Cela limiterait considérablement le retour sur investissement réel. La prévision possède également une dimension économique : le marché mondial des modèles de GenAI devrait dépasser les 25 milliards de dollars en 2026 pour atteindre 75 milliards en 2029. Si les dépenses dans ces modèles et applications continuent de croître à ce rythme, la pression pour maîtriser leur fonctionnement s’accentuera aussi.
On commence déjà à percevoir cette évolution sur le marché, où Gartner a même créé une catégorie spécifique pour les plateformes d’évaluation et d’observabilité de l’IA, les AEOP (AI Evaluation and Oversight Platforms). Ces outils visent à gérer la nature non déterministe de ces systèmes et à transformer métriques, traces et évaluations en un processus continu d’amélioration. Cela témoigne d’une maturité croissante : la conversation stratégique sort du simple “quel modèle utiliser” pour se concentrer sur “comment le surveiller, l’évaluer et le gouverner”.
La régulation aussi pousse dans ce sens
Le besoin d’explication et de contrôle de l’IA ne découle pas uniquement de préoccupations techniques. Il s’inscrit également dans le cadre d’un renforcement réglementaire et de gouvernance, notamment en Europe. La Commission européenne rappelle en lien avec l’AI Act que la nouvelle réglementation impose des obligations de transparence pour certains systèmes et modèles, dont une partie importante sera applicable à partir d’août 2026. Avant cela, dès août 2025, ces obligations seront également en vigueur pour les modèles à usage général.
Cette évolution réglementaire renforce la thèse de Gartner : l’IA en entreprise doit désormais être plus qu’efficiente ou performante, elle doit être justifiable. Concrètement, cela signifie que les organisations devront démontrer pourquoi un système a généré une certaine réponse, quels contrôles il a passés, quelles limites lui ont été fixées, et comment leur conformité est validée sur le long terme.
Il ne s’agit pas seulement de satisfaire à des exigences réglementaires ou d’audit. C’est aussi une question de gestion interne. Les équipes juridiques, responsables de conformité, opérations, SRE et sécurité devront établir un langage commun avec les équipes data et IA. Cela nécessite l’adoption d’outils, de processus et de métriques nouvelles.
Un changement de priorités en entreprise
Ce que la prévision de Gartner met en évidence, c’est un déplacement de l’attention, du rythme vers la qualité de la réponse. Alors que l’observabilité traditionnelle se concentrait surtout sur la vitesse et le coût, la priorité va désormais vers la précision factuelle, la cohérence logique ou encore la tendance de certains modèles à produire des réponses flatteuses ou biaisées. Autrement dit, l’IA n’est plus seulement jugée sur sa rapidité, mais aussi sur sa fiabilité.
Ce mouvement s’inscrit aussi dans la lignée du travail du NIST (National Institute of Standards and Technology) aux États-Unis. Ce dernier explique dans son cadre de gestion des risques pour l’IA que l’un des objectifs prioritaires est d’intégrer des critères de confiance dans la conception, le développement, l’utilisation et l’évaluation des systèmes d’IA. En 2024, il a publié un profil dédié à l’IA générative pour aider les entreprises à identifier les risques spécifiques liés à ces technologies et à élaborer des stratégies d’atténuation.
Tous ces éléments convergent vers une même conclusion : la seconde phase de l’IA en entreprise ne reposera pas uniquement sur des modèles plus puissants, mais sur des mécanismes plus solides pour les comprendre et les surveiller. La prévision de Gartner n’assure pas que toutes les entreprises atteindront ce niveau d’ici 2028, mais elle indique clairement la direction du marché. Et cette orientation est cohérente avec l’évolution réglementaire, la sécurité, la gouvernance et les opérations déjà en marche.
Questions fréquemment posées
Qu’est-ce que l’observabilité des LLM en entreprise ?
C’est la capacité à surveiller et analyser le comportement d’un modèle de langage en production, non seulement en termes de performance technique, mais aussi en ce qui concerne les hallucinations, biais, utilisation des tokens, dérive ou qualité des réponses.
Qu’est-ce que l’IA explicable ou XAI et pourquoi est-ce crucial ?
L’IA explicable rassemble des techniques et des capacités permettant de comprendre pourquoi un modèle répond d’une certaine manière, quels sont ses limites et quels risques il peut présenter. Elle est essentielle pour l’audit, la conformité, la sécurité et la prise de décision stratégique.
Pourquoi Gartner anticipe une forte croissance de ces investissements ?
Parce que les entreprises passent de l’expérimentation contrôlée de GenAI à son déploiement dans des processus réels, où il ne suffit plus que le système fonctionne : il doit aussi être traçable, gouvernable et défendable face aux risques, erreurs ou exigences réglementaires.
Quel lien avec la réglementation européenne sur l’IA ?
L’AI Act instaure des obligations de transparence et de gouvernance pour certains systèmes et modèles d’IA. Cela pousse de nombreuses organisations à renforcer leurs outils de supervision, d’explication et de contrôle continu de leurs déploiements.
Source : Gartner