Le Model Context Protocol (MCP), lancé par Anthropic en novembre 2024, a franchi la barre des 97 millions d’installations cumulées en mars 2026. Ce protocole open source, conçu pour standardiser la connexion entre les modèles d’IA et les outils externes, est devenu en 16 mois un standard de facto adopté par l’ensemble de l’industrie. De Google à Microsoft en passant par des milliers de développeurs indépendants, MCP redéfinit la manière dont les agents IA interagissent avec le monde numérique.
Points clés
- 97 millions d’installations cumulées du protocole MCP en mars 2026, contre 12 millions en septembre 2025
- Plus de 14 000 serveurs MCP référencés dans les registres communautaires
- Adoption par Google (Gemini), Microsoft (Copilot), OpenAI (ChatGPT) et Salesforce (Agentforce)
- Le protocole devient le socle technique des agents IA autonomes multi-outils
- Anthropic maintient une gouvernance ouverte via un comité de pilotage multi-parties prenantes
D’un protocole interne à un standard industriel
L’histoire de MCP est celle d’une adoption fulgurante. Lorsqu’Anthropic publie la première spécification en novembre 2024, le protocole est d’abord perçu comme un outil interne destiné à enrichir Claude, le modèle phare de l’entreprise. Mais la décision de publier le code sous licence MIT, sans restriction d’usage, change la donne. En quelques semaines, des développeurs commencent à créer des « serveurs MCP » — des connecteurs permettant à n’importe quel modèle d’IA de dialoguer avec des bases de données, des API, des systèmes de fichiers ou des applications tierces.
La croissance qui suit est exponentielle. De 1 000 serveurs référencés en janvier 2025, l’écosystème passe à 5 000 en juin, puis 14 000 en mars 2026. Chaque serveur représente une capacité nouvelle : interroger Slack, manipuler un tableur Google Sheets, naviguer sur le web, exécuter du code Python, piloter un drone ou même interagir avec un robot industriel. Le protocole transforme les modèles de langage, initialement limités à la génération de texte, en orchestrateurs capables d’agir sur le monde réel.
Pourquoi MCP a conquis l’industrie
Plusieurs facteurs expliquent cette adoption massive. Le premier est technique : avant MCP, chaque intégration entre un modèle d’IA et un outil externe nécessitait un développement sur mesure. Un connecteur conçu pour GPT ne fonctionnait pas avec Claude ou Gemini. MCP propose une abstraction universelle — un « USB-C de l’IA », selon la métaphore souvent utilisée par la communauté — qui permet à n’importe quel modèle compatible de se connecter à n’importe quel outil via une interface standardisée.
Le deuxième facteur est stratégique. En publiant MCP sous licence libre, Anthropic a renoncé à en faire un avantage concurrentiel exclusif pour miser sur un effet de réseau. Plus les développeurs créent de serveurs MCP, plus le protocole devient indispensable, et plus les modèles qui le supportent gagnent en utilité. Cette logique de plateforme ouverte a convaincu même les concurrents directs d’Anthropic : Google a intégré MCP dans Gemini en janvier 2026, suivi par OpenAI pour ChatGPT et Microsoft pour Copilot.
Le troisième facteur est temporel. L’émergence de MCP coïncide avec l’essor des agents IA autonomes, ces systèmes qui enchaînent des actions complexes sans intervention humaine. Un agent qui doit « rechercher des vols, comparer les prix, puis réserver le moins cher » a besoin d’accéder à plusieurs services en séquence. MCP fournit l’infrastructure de communication qui rend ces scénarios possibles à grande échelle.
L’architecture technique de MCP
Comprendre le succès de MCP suppose d’en saisir l’architecture. Le protocole repose sur un modèle client-serveur. Le « client MCP » est intégré dans l’application hôte (Claude Desktop, un IDE comme VS Code, une application métier). Le « serveur MCP » expose les capacités d’un outil externe via trois primitives fondamentales : les outils (actions que le modèle peut exécuter), les ressources (données qu’il peut consulter) et les prompts (modèles d’interaction prédéfinis).
La communication s’effectue via JSON-RPC 2.0 sur un transport local (stdio) ou distant (HTTP avec Server-Sent Events). Cette dualité permet à MCP de fonctionner aussi bien en environnement local sécurisé — un développeur qui connecte Claude à sa base de données PostgreSQL sur sa machine — qu’en déploiement cloud distribué, où des agents accèdent à des services hébergés à travers le réseau.
La version 2026.1 du protocole, publiée en février, a introduit deux évolutions majeures. La première est le support natif du « streamable HTTP », qui remplace le mécanisme SSE précédent et simplifie les déploiements en production. La seconde est un système d’authentification renforcé basé sur OAuth 2.1, qui permet aux serveurs MCP de gérer finement les permissions accordées aux agents IA, une exigence cruciale pour les déploiements en entreprise, comme l’a rappelé l’EU AI Week.
Les cas d’usage qui transforment les entreprises
Au-delà des chiffres d’adoption, c’est la diversité des cas d’usage qui frappe. Dans le développement logiciel, MCP a transformé les IDE en environnements assistés par IA. Un développeur peut désormais demander à son assistant de « lire le ticket Jira #1234, analyser le code concerné, proposer un correctif et ouvrir une pull request » — le tout sans quitter son éditeur. Selon une enquête de Stack Overflow, 41 % des développeurs professionnels utilisaient au moins un serveur MCP dans leur workflow quotidien en février 2026.
Dans le secteur financier, les agents MCP automatisent la veille réglementaire, la génération de rapports de conformité et l’analyse de risque en temps réel. Un grand groupe bancaire européen a déclaré avoir réduit de 60 % le temps consacré à la production de rapports réglementaires grâce à un agent IA connecté via MCP à ses bases de données internes, son système documentaire et les flux d’information de l’Autorité bancaire européenne.
Dans la santé, des chercheurs de l’Inserm utilisent des serveurs MCP pour connecter des modèles de langage à des bases de données génomiques, permettant aux cliniciens d’interroger en langage naturel des jeux de données qui nécessitaient auparavant une expertise en bioinformatique. « MCP démocratise l’accès aux données complexes », résume le Dr. Élise Moreau, responsable du programme IA de l’Inserm, dans un entretien accordé au journal du CNRS.
Les défis de la gouvernance ouverte
Le succès de MCP pose aussi des questions de gouvernance. Qui décide de l’évolution d’un protocole utilisé par des millions de développeurs et des dizaines d’entreprises concurrentes ? Anthropic a répondu en mettant en place un comité de pilotage (steering committee) composé de représentants de l’entreprise, de contributeurs indépendants et d’organisations utilisatrices. Les décisions d’évolution du protocole sont soumises à un processus de RFC (Request for Comments) public, inspiré des pratiques de l’IETF pour les standards Internet.
Ce modèle de gouvernance n’est pas sans tensions. Certains développeurs reprochent à Anthropic de conserver une influence disproportionnée sur la feuille de route. D’autres craignent que la multiplication des serveurs MCP non vérifiés ne crée des risques de sécurité, un agent IA qui se connecte à un serveur MCP malveillant pourrait exfiltrer des données sensibles ou exécuter du code malicieux. La communauté travaille sur un système de certification et de signature cryptographique des serveurs, attendu dans la version 2026.3 du protocole.
MCP face à la concurrence
MCP n’est pas le seul protocole à viser la standardisation des interactions IA-outils. Google a proposé l’Agent-to-Agent Protocol (A2A), focalisé sur la communication entre agents plutôt qu’entre un agent et un outil. Les deux protocoles sont complémentaires plus que concurrents : MCP gère la connexion verticale (agent → outil), tandis qu’A2A vise la coordination horizontale (agent → agent).
D’autres initiatives, comme le Tool Use Protocol de LangChain ou le Functions Calling standardisé de l’OpenAI API, occupent des niches spécifiques. Mais aucune n’a atteint la masse critique de MCP, qui bénéficie de son avance temporelle et de son écosystème de serveurs. À 97 millions d’installations, le protocole d’Anthropic a franchi le seuil au-delà duquel un standard devient auto-renforçant : plus il est adopté, plus il est difficile de s’en passer.
Perspectives : vers les 200 millions
Les analystes de Gartner prévoient que MCP dépassera les 200 millions d’installations d’ici fin 2026, porté par l’intégration dans les suites bureautiques (Microsoft 365, Google Workspace) et les plateformes d’entreprise (Salesforce, SAP). L’enjeu pour Anthropic est de maintenir la cohérence du protocole face à une adoption qui déborde largement le cadre initial du développement logiciel.
La prochaine frontière est celle des agents IA embarqués — dans les véhicules autonomes, les robots domestiques, les dispositifs médicaux. Ces systèmes nécessitent des adaptations du protocole pour fonctionner avec des contraintes de latence et de fiabilité que le web ne connaît pas. Le comité technique de MCP a constitué un groupe de travail dédié, dont les premières recommandations sont attendues pour le troisième trimestre 2026.
Ce qui est certain, c’est que MCP a changé la nature même de ce qu’un modèle d’IA peut accomplir. En transformant des modèles de langage en agents capables d’agir, le protocole d’Anthropic a ouvert un chapitre nouveau dans l’histoire de l’intelligence artificielle — celui où l’IA ne se contente plus de comprendre le monde, mais commence à y intervenir.
FAQ
Qu’est-ce que le Model Context Protocol (MCP) ?
MCP est un protocole open source développé par Anthropic qui standardise la manière dont les modèles d’IA se connectent aux outils et sources de données externes. Il fonctionne comme un « USB-C de l’IA » : une interface universelle qui permet à n’importe quel modèle compatible de dialoguer avec n’importe quel service, sans développement sur mesure.
MCP est-il réservé à Claude d’Anthropic ?
Non. Bien que développé par Anthropic, MCP est publié sous licence MIT et utilisable par tous. Google (Gemini), OpenAI (ChatGPT), Microsoft (Copilot) et des milliers de développeurs indépendants l’ont intégré. Le protocole est conçu pour être agnostique vis-à-vis du modèle d’IA utilisé.
Comment installer un serveur MCP ?
L’installation varie selon le serveur, mais la plupart sont disponibles via npm (Node.js) ou pip (Python). Un registre communautaire référence plus de 14 000 serveurs classés par catégorie. Les environnements comme Claude Desktop ou VS Code proposent une intégration simplifiée permettant d’ajouter des serveurs en quelques clics.
MCP est-il sécurisé pour un usage en entreprise ?
La version 2026.1 de MCP intègre l’authentification OAuth 2.1 et un contrôle granulaire des permissions. Les entreprises peuvent définir précisément quelles actions un agent IA est autorisé à exécuter via chaque serveur. Un système de certification des serveurs est en développement pour renforcer la sécurité de l’écosystème.



