Anthropic fait don de MCP à la Linux Foundation et accélère la course aux normes de l’intelligence artificielle agentique

Anthropic fait don de MCP à la Linux Foundation et accélère la course aux normes de l'intelligence artificielle agentique

La course pour dominer la prochaine génération d’intelligence artificielle ne se joue pas uniquement au niveau des modèles : elle se situe également dans la « infrastructure » qui connecte ces modèles aux données, aux API et aux systèmes d’entreprise. Sur ce terrain, un mouvement clé vient de se concrétiser : Anthropic a offert le Model Context Protocol (MCP) à la Linux Foundation, en collaboration avec OpenAI et Block, en tant que cofonderateurs de la nouvelle AI Foundation Agentic (AAIF), soutenus par des géants tels qu’AWS, Google, Microsoft, Cloudflare ou Bloomberg.

Le message de fond est clair : l’industrie souhaite un standard ouvert et neutre pour l’ère de l’Agentic AI, où les modèles ne se limitent plus à des chatbots, mais se comportent comme des agents capables d’agir, d’appeler des outils et d’opérer sur des infrastructures complexes de manière autonome.


MCP : du « chacun à sa manière » à un standard commun

Le MCP a vu le jour chez Anthropic comme un protocole pour connecter les applications d’IA à des ressources externes : APIs, bases de données, CRM, outils de développement ou services internes. Jusqu’à présent, chaque fournisseur et chaque entreprise résolvaient ce problème à leur façon, avec des intégrations spécifiques peu réutilisables.

Avec le MCP, cette logique change :

  • Un système expose ses capacités via un serveur MCP.
  • Tout client compatible (Claude, ChatGPT, Gemini, éditeurs comme VS Code, IDE, clients de bureau, etc.) peut découvrir ces outils et les utiliser sans intégrations ad hoc.

Concrètement, le MCP introduit une couche d’abstraction entre modèles et outils, très similaire à ce que furent autrefois l’USB ou le HTTP dans d’autres domaines : un langage commun permettant aux agents d’IA et aux systèmes d’entreprise de se comprendre.

En à peine un an, ce protocole a connu une adoption remarquable, selon les données partagées par Anthropic :

  • Plus de 10 000 serveurs MCP publics actifs, allant d’intégrations « orientées développeur » à des déploiements en entreprise du Fortune 500.
  • Support dans des produits de premier plan tels que ChatGPT, Cursor, Gemini, Microsoft Copilot et Visual Studio Code.
  • SDKs officiels dans les principaux langages et des dizaines de millions de téléchargements mensuels de paquets Python et TypeScript.

Tout cela s’accompagne d’un registry communautaire pour découvrir les serveurs MCP, ainsi que d’un annuaire de connecteurs dans Claude avec plusieurs dizaines d’intégrations listées.

Anthropic fait don de MCP à la Linux Foundation et accélère la course aux normes de l'intelligence artificielle agentique 1

Agentic AI Foundation : la nouvelle maison du MCP (et bien plus encore)

Pour éviter que le MCP ne soit perçu comme la propriété exclusive d’un seul fournisseur, Anthropic a décidé de le donner à la Linux Foundation, dans le cadre d’un nouveau fonds dédié : la Agentic AI Foundation (AAIF).

La AAIF débute avec trois projets fondateurs :

  • Model Context Protocol (MCP), en tant que standard pour connecter agents et outils.
  • goose, impulsé par Block, axé sur les flux d’agents et l’automatisation dans les produits financiers et de paiement.
  • AGENTS.md, une proposition d’OpenAI pour documenter et décrire les agents d’IA, leurs capacités et exigences, de manière standardisée.

Le choix de la Linux Foundation n’est pas anodin. L’organisation a déjà montré sa capacité à orchestrer de vastes écosystèmes ouverts tels que Linux, Kubernetes, Node.js ou PyTorch, où des concurrents directs collaborent dans l’infrastructure de base avant de construire leurs produits.

La AAIF vise à reproduire ce modèle dans l’IA agentique : une base commune de standards, outils et documentation, maintenue de manière neutre, sur laquelle chaque entreprise pourra innover sans réinventer sans cesse la couche d’intégration.


Pourquoi cela importe aux équipes techniques

Au-delà des titres, ce mouvement a des implications concrètes pour les développeurs, architectes et équipes plateforme :

1. Moins d’intégrations fragiles, plus de connecteurs réutilisables
Au lieu de développer des intégrations spécifiques pour « mon assistant propriétaire » ou « mon copilote précis », les entreprises peuvent investir dans des serveurs MCP universels pour leur écosystème IA. Changer de modèle ou de fournisseur ne revient plus à réécrire toute la couche d’orchestration.

2. Gouvernance, audit et sécurité améliorés
Un standard clair facilite la définition de politiques : quelles outils peut utiliser un agent, avec quels paramètres, sous quelle identité, et comment auditer ses actions. En secteurs régulés — finance, santé, administration — cela devient essentiel pour déployer des agents avec accès à des systèmes critiques.

3. Observabilité et maîtrise dans les flux agentiques
La spécification MCP et son écosystème SDKs et outils visent à rendre ces flux plus transparents : traces d’appels aux outils, métriques par serveur, gestion d’erreurs et temps de réponse, etc. La Agentic AI Foundation peut devenir un forum d’accord sur les bonnes pratiques et extensions communes.

4. Portabilité entre cloud et fournisseurs
Le fait qu’AWS, Google Cloud, Microsoft Azure et Cloudflare proposent déjà une prise en charge de l’infrastructure MCP envoie un signal fort : le protocole s’intègre aux primitives cloud, facilitant le déploiement d’agents proches des données là où elles résident.


Un « moment Kubernetes » pour l’IA agentique ?

La comparaison avec Kubernetes revient régulièrement dans l’analyse de ce mouvement. En 2015, Google a offert K8s à la CNCF, créant alors le standard de facto pour l’orchestration de containers, sur lequel reposent aujourd’hui presque tous les fournisseurs cloud et plateformes d’applications.

Désormais, Anthropic, OpenAI, Block et les principaux fournisseurs cloud envoient un signal similaire : l’infrastructure des agents d’IA — protocoles, spécifications, bibliothèques — ne doit pas se fragmenter en une multitude de solutions incompatibles.

La mise en avant du MCP et de la Agentic AI Foundation indique que, sur cette couche, l’industrie préfère collaborer :

  • Partager le langage commun (protocole, outils, documentation).
  • Se concurrencer sur ce qui fait vraiment la différence : modèles, expérience utilisateur, qualité des agents, intégration verticale, coûts et services complémentaires.

Et après ?

À court terme, l’impact sera surtout visible dans le monde des développeurs : plus de SDKs, plus de serveurs MCP tiers, de meilleures intégrations dans IDE, outils de bureau et outils de productivité. À moyen terme, les entreprises qui expérimentent aujourd’hui des agents isolés commenceront à envisager des architectures plus structurées, basées sur des standards, avec MCP et AAIF comme éléments centraux.

La collaboration sous l’égide de la Linux Foundation entre concurrents directs conforte une conclusion essentielle : le futur de l’IA agentique sera collaboratif, et l’industrie a déjà décidé de privilégier un consensus sur la « plomberie » qui supportera cette révolution, plutôt que de continuer à dupliquer des solutions propriétaires incompatibles.

le dernier