OpenAI analyse la nouvelle infrastructure d’IA en entreprise : beaucoup de code, de nombreux agents… et un fossé qui se creuse

OpenAI analyse la nouvelle infrastructure d'IA en entreprise : beaucoup de code, de nombreux agents… et un fossé qui se creuse

OpenAI a publié son premier State of Enterprise AI 2025, un rapport qui met des chiffres concrets sur quelque chose que beaucoup de CTO, CIO et équipes de données pressentent déjà : l’intelligence artificielle cesse d’être une simple « application » pour devenir une couche d’infrastructure sur laquelle se construisent des produits, des flux de travail et même de nouveaux modèles économiques.

Cette situation est particulièrement significative pour un public technologique : elle évoque les tokens, API, agents, connecteurs, évaluations continues et, surtout, une différenciation croissante entre les organisations qui industrialisent l’IA et celles qui restent en mode expérimental.


De la preuve de concept à l’infrastructure : l’IA comme une nouvelle couche du stack

En seulement trois ans, plus d’un million de clients enterprise utilisent les outils d’OpenAI, avec plus de 7 millions de « sièges » ChatGPT en environnement professionnel. Au cours des 12 derniers mois, le volume hebdomadaire de messages échangés par ces clients a été multiplié par 8, et la consommation de reasoning tokens par organisation a augmenté d’environ 320 fois.

En langage infrastructure : les modèles d’IA ne sont plus utilisés de façon ponctuelle, mais comme des services centraux intégrés dans des produits, backends et outils internes. Plus de 9 000 organisations ont traité plus de 10 milliards de tokens via l’API d’OpenAI, et près de 200 d’entre elles dépassent désormais le seuil du billion de tokens consommés.

Pour le secteur technologique, cela implique une évidence : l’IA se consolide comme une autre « couche » du stack (aux côtés des bases de données, files de messages ou systèmes d’observabilité), avec ses propres métriques de consommation, performance et gouvernance.


GPTs, Projects et API : où l’IA s’intègre réellement

Une des données les plus révélatrices du rapport est l’expansion explosive des Custom GPTs et Projects (interfaces configurables sur ChatGPT avec instructions, contexte et actions personnalisées). Le nombre d’utilisateurs hebdomadaires de ces fonctionnalités a été multiplié par 19 cette année, représentant déjà environ 20 % de tous les messages échangés par les clients Enterprise.

Concrètement, cela signifie que de nombreuses entreprises ne se limitent plus à « interroger » un modèle, mais :

  • Codent des connaissances internes dans des assistants réutilisables.
  • Connectent GPTs à des systèmes d’entreprise via API et tool calling.
  • Automatisent des flux multi-étapes (agentic workflows) au sein de leurs applications.

L’API, quant à elle, est principalement utilisée pour construire des assistants intégrés, des recherches avancées, de l’automatisation de flux ou des outils pour développeurs. L’adoption ne concerne plus seulement le secteur technologique : l’usage de l’API par des entreprises non tech a été multiplié par 5 sur un an, avec des cas tels que le support client et la génération de contenu représentant près de 20 % de l’activité.


Productivité mesurable : de minutes économisées à de nouveaux types de travail

Le rapport tente également de répondre à une question cruciale : l’IA fait-elle vraiment gagner du temps et de l’argent ?

Les données internes d’OpenAI indiquent que 75 % des salariés sondés affirment que l’IA a amélioré la vitesse ou la qualité de leur travail. Les utilisateurs de ChatGPT Enterprise rapportent une économie moyenne de 40 à 60 minutes par jour actif, pouvant atteindre 60–80 minutes pour des profils comme data scientists, ingénieurs ou communicants.

Mais ce qui est encore plus intéressant pour les équipes techniques, c’est que l’IA ne se limite pas à accélérer des tâches connues : elle élargit la gamme de ce que les utilisateurs peuvent réaliser :

  • 75 % déclarent pouvoir accomplir des tâches auparavant inaccessibles : programmation, revue de code, analyse et automatisation dans des tableurs, développement d’outils techniques, dépannage ou conception d’agents et GPTs personnalisés.
  • Les messages liés au code ont augmenté dans tous les départements ; en dehors de l’ingénierie, IT et R&D, ces messages ont connu une croissance moyenne de 36 % en six mois.

Autrement dit : l’IA est en train d’effacer la frontière entre « techniques » et « non techniques », obligeant à repenser qui a le droit – et la capacité – de manipuler des données, d’automatiser des processus ou de prototyper des outils internes.


La fracture qui se profile : frontier workers vs le reste

Le rapport introduit un concept qui devrait faire réfléchir de nombreux dirigeants technologiques : celui de frontier workers, les 5 % d’utilisateurs qui exploitent l’IA de manière la plus intensive au sein de leur organisation.

Ces travailleurs :

  • Envoient 6 fois plus de messages que l’utilisateur moyen.
  • Utilisent 16 fois plus la plateforme pour l’analyse de données que leurs collègues.
  • En programmation, l’écart est encore plus marqué : les frontier workers envoient 17 fois plus de messages liés au code que la moyenne.

Au niveau de l’entreprise, le phénomène se répète : les sociétés dans le top 5 % génèrent deux fois plus de messages par utilisateur que la moyenne, et sept fois plus de messages aux GPTs, ce qui traduit une intégration beaucoup plus poussée dans leurs systèmes et processus.

Le rapport révèle également une donnée sensible : même parmi les utilisateurs actifs de ChatGPT Enterprise, 19 % n’ont jamais utilisé les outils d’analyse de données, 14 % n’ont jamais touché aux fonctionnalités de raisonnement avancé, et 12 % n’ont jamais utilisé la recherche intégrée. Chez les utilisateurs quotidiens, ces chiffres sont plus faibles, mais persistent.

En conclusion : pour les médias technologiques et responsables produit, le problème n’est plus le manque de modèles ou de fonctionnalités, mais l’adoption systématique et en profondeur.


Secteurs, géographies et cas d’usage : l’IA quitte le laboratoire

Par secteur, la technologie reste le moteur de l’adoption (croissance des clients de 11 fois en un an), mais la santé et la fabrication apparaissent déjà comme certains des domaines à la croissance la plus rapide (8× et 7× respectivement). La majorité des secteurs a multiplié par plus de 6 sa base de clients, et même les plus lents voient leur adoption doubler par rapport à l’année précédente.

Géographiquement, la progression est mondiale : l’Australie, le Brésil, les Pays-Bas et la France enregistrent la plus forte croissance en nombre de clients payants, avec des augmentations supérieures à 143 % d’une année sur l’autre, tandis que les États-Unis, l’Allemagne et le Japon concentrent le plus de messages échangés.

Le rapport s’appuie aussi sur des cas concrets illustrant cette diversité :

  • Intercom construit Fin Voice sur l’API Realtime pour le support téléphonique, réduisant la latence de 48 % et résolvant environ 53 % des appels de bout en bout avec un agent vocal.
  • BBVA automatise plus de 9 000 demandes juridiques annuelles avec un chatbot, libérant l’équivalent de 3 ETP pour des tâches à plus forte valeur ajoutée.
  • Moderna réduit de semaines à des heures des étapes clés dans la conception des Target Product Profiles, accélérant la planification produit et la prise de décisions cliniques.

Ces exemples intéressent particulièrement les profils techniques, car ils combinent intégration de données, API internes, sécurité, conformité et mesurer l’impact.


Ce que font différemment les leaders de l’IA

Au-delà des chiffres, le rapport cherche à dégager un « playbook » technique et organisationnel des entreprises en pointe :

  • Intégration profonde avec les systèmes et les données : connecteurs actifs vers les outils clés (CRM, systèmes internes, référentiels de connaissances) pour que les modèles disposent d’un contexte réel, et non seulement de prompts génériques.
  • Standardisation des flux et réutilisation : culture de création, partage et versionnage de GPTs, agents et modèles internes, plutôt que de dépendre de prompts « ad hoc » pour chaque équipe.
  • Évaluations continues et MLOps pour les LLMs : batteries d’évaluations liées à des cas d’usage concrets (qualité de réponse, délais, erreurs critiques) avec des boucles d’amélioration continue.
  • Gouvernance et changement organisationnel : combinaison d’un cadre central en matière de sécurité, conformité et formation, avec des « champions » décentralisés pour promouvoir des cas d’usage dans chaque domaine.

Le rapport conclut par un message que nombre de CIO/CTO commencent à répéter : l’évolution rapide des modèles et des outils fait que, désormais, le vrai goulot d’étranglement n’est plus technique, mais organisationnel.


Questions fréquentes pour un lecteur technologique

En quoi consiste la différence entre utiliser ChatGPT « à la main » et construire avec l’API ou via GPTs/Projects ?
ChatGPT est pratique pour des tâches ponctuelles, mais l’API, les Custom GPTs et les Projects permettent d’intégrer l’IA directement dans les applications, backends et outils internes, avec contrôle sur les données, permissions, tool calling et métriques d’utilisation.

Quelles implications cela a-t-il pour le data stack d’entreprise ?
L’IA impose une exposition plus structurée des données (via APIs, connecteurs, feature stores) et oblige à penser à la gouvernance, l’audit et les évaluations continues comme une partie intégrante du cycle de vie du modèle, et pas seulement des données.

Comment mesurer si l’adoption de l’IA suit la bonne voie ?
Le rapport recommande d’observer l’intensité d’usage (messages, tâches variées, utilisation d’outils avancés), le temps économisé et les résultats business ( conversions, délais de résolution, revenus), en comparant toujours les « frontier workers » à la moyenne pour quantifier la réussite de l’intégration.

Tout n’est-il pas encore décidé ou reste-t-il une marge pour progresser ?
Même si les différences sont visibles, OpenAI insiste sur le fait que l’IA en entreprise en est encore à ses prémices : les modèles peuvent faire beaucoup plus que ce qui est exploité aujourd’hui. Pour beaucoup d’entreprises technologiques, la partie ne fait que commencer.

source : Noticias inteligencia artificial

le dernier