- ▸ 97 millions d'installs en 16 mois : le rythme
- ▸ Le don à la Linux Foundation : le pari de la neutralité
- ▸ Ce qui change concrètement pour les développeurs
- ▸ La rentabilité pour l'écosystème
Le Model Context Protocol (MCP) a franchi le seuil des 97 millions de téléchargements mensuels de SDK en mars 2026, tous langages confondus. Lancé par Anthropic en novembre 2024 avec environ 2 millions de téléchargements, le protocole atteint en seize mois une diffusion qu’il a fallu quatre ans à Kubernetes pour égaler. Au-delà du chiffre, c’est la fin d’une bataille de standards qui se confirme.
97 millions d’installs en 16 mois : le rythme
Le compteur consolidé porte sur les SDK officiels Python et TypeScript, hors forks. À titre de comparaison, OpenAPI a mis cinq ans pour atteindre un volume similaire de téléchargements mensuels, et gRPC près de six ans. La courbe MCP rappelle plutôt celle de Docker entre 2014 et 2016 : un standard adopté avant même que les outils tiers ne soient mûrs.
Trois facteurs expliquent l’accélération. D’abord, l’intégration native dans Claude, Cursor, Zed, Continue, puis dans Codex et Claude Code en début 2026. Ensuite, la simplicité du protocole : MCP standardise la façon dont un LLM appelle des outils externes, sans imposer de runtime ni de framework lourd. Enfin, l’effet de marché : avec un protocole partagé, les éditeurs n’ont à écrire qu’un seul connecteur pour servir tous les clients compatibles.
Le don à la Linux Foundation : le pari de la neutralité
Le 9 décembre 2025, Anthropic a annoncé le don du Model Context Protocol à la nouvelle Agentic AI Foundation (AAIF), fonds dirigé hébergé par la Linux Foundation. La gouvernance est désormais collective : Anthropic, Block et OpenAI sont co-fondateurs, avec le soutien de Google, Microsoft, AWS, Cloudflare et Bloomberg. MCP est rejoint par deux autres projets fondateurs : Goose (par Block) et AGENTS.md (par OpenAI).
Le geste est calculé. Anthropic perd le contrôle exclusif d’un standard qu’elle a inventé. Mais elle gagne en retour deux choses : la légitimité de neutralité, indispensable pour qu’OpenAI ou Google adoptent durablement le protocole, et la garantie qu’aucun concurrent ne pourra forker MCP en ajoutant ses propres extensions propriétaires. C’est la stratégie qui a réussi à Google avec Kubernetes : céder la gouvernance pour assurer la domination de l’écosystème.
Ce qui change concrètement pour les développeurs
Trois conséquences immédiates pour qui construit avec l’IA :
- Stabilité accrue : la roadmap n’est plus pilotée par un seul éditeur. Les changements cassants nécessiteront un consensus multi-acteurs.
- Gouvernance documentée : MCP rejoint le modèle Apache 2.0 + processus TOC (Technical Oversight Committee) déjà éprouvé sur Kubernetes, OpenTelemetry ou Prometheus.
- Compatibilité élargie : OpenAI a confirmé l’intégration native de MCP dans ses agents, mettant fin aux interrogations sur la coexistence avec Functions et Assistants API.
La rentabilité pour l’écosystème
Pour un éditeur SaaS qui développe un connecteur, le ROI bascule. Avant MCP, fournir des intégrations compatibles avec Claude, ChatGPT, Gemini et les frameworks open source impliquait quatre développements distincts. Avec MCP, un seul serveur suffit. Le calcul est immédiat : pour une intégration de complexité moyenne (environ 200 heures de développement), l’économie d’effort à la première année avoisine 70 %.
Côté entreprise utilisatrice, la garantie de portabilité réduit le risque de lock-in fournisseur. Une équipe IT qui mise aujourd’hui sur Anthropic peut basculer demain vers OpenAI sans réécrire ses connecteurs internes. C’est un argument lourd pour les directions achats et les RSSI, dans un marché où aucun éditeur n’a encore démontré sa capacité à conserver une avance technique durable, comme l’a confirmé l’AI Index 2026.
Qui est concerné
Trois publics doivent intégrer MCP dans leur veille active :
- Les développeurs et architectes : MCP devient un prérequis de facto pour tout projet d’agent IA. Le protocole sera demandé en entretien comme React l’a été en 2018.
- Les éditeurs SaaS : exposer son produit en serveur MCP devient un avantage concurrentiel, voire une obligation pour rester sur les shortlists.
- Les DSI et acheteurs IT : tout RFP IA agentique devrait désormais exiger la compatibilité MCP, au même titre qu’on exigeait OAuth 2.0 ou OpenAPI il y a cinq ans.
Ce qu’il faut retenir
Le passage des 97 millions d’installs et le don à la Linux Foundation marquent la fin de la phase expérimentale de MCP. Le Model Context Protocol n’est plus une initiative Anthropic, c’est une infrastructure partagée. Comme HTTP en 1995 ou Docker en 2015, sa valeur ne tient plus à ses fonctionnalités mais à son universalité. Et désormais, ne pas le supporter coûte plus cher que de l’adopter.
Sources : Blog MCP, Anthropic, Linux Foundation.



