Model Context Protocol : le standard qui unifie l'IA agentique

MCP, le protocole créé par Anthropic et adopté par OpenAI, Google et Microsoft, s'impose comme le standard pour connecter les agents IA aux outils externes.

Alexandre Berge
· · 14 min de lecture ·

Le Model Context Protocol (MCP) s’est imposé en moins d’un an comme le standard d’interopérabilité pour connecter les agents IA aux outils et données du monde réel. Créé par Anthropic en novembre 2024 et adopté depuis par OpenAI, Google DeepMind et Microsoft, ce protocole ouvert résout un problème fondamental : permettre à n’importe quel assistant IA de communiquer avec n’importe quelle source de données via une interface unifiée. En décembre 2025, le transfert de MCP à la Linux Foundation marque une étape décisive vers sa consécration comme infrastructure critique de l’IA. Avec plus de 10 000 serveurs actifs et 97 millions de téléchargements SDK mensuels, MCP redéfinit les règles du jeu pour les développeurs d’applications IA.

L’USB-C de l’intelligence artificielle

Pour comprendre MCP, imaginez le chaos qui régnait avant l’USB-C : chaque fabricant imposait son propre connecteur, forçant les utilisateurs à jongler entre dizaines de câbles incompatibles. L’écosystème IA traversait exactement la même crise. Chaque plateforme — ChatGPT, Claude, Gemini — développait ses propres mécanismes d’intégration. Connecter dix applications IA à cent outils différents nécessitait potentiellement mille intégrations personnalisées, un cauchemar pour les développeurs.

David Soria Parra, ingénieur senior chez Anthropic et co-créateur du protocole avec Justin Spahr-Summers, décrit cette situation comme le « problème M×N ». Sa solution transforme cette équation en simple addition : M+N. Un serveur MCP développé une fois fonctionne avec tous les clients compatibles, qu’il s’agisse de Claude Desktop, ChatGPT ou Microsoft Copilot. Anthropic qualifie élégamment MCP d’« USB-C pour l’IA » — un adaptateur universel entre assistants intelligents et services externes.

Le protocole repose sur une architecture client-hôte-serveur héritée du Language Server Protocol (LSP), qui révolutionna l’écosystème des IDE dans les années 2010. L’hôte — typiquement Claude Desktop ou VS Code — coordonne les connexions. Les clients MCP maintiennent des sessions persistantes avec les serveurs. Ces derniers exposent trois types de primitives : les outils (fonctions exécutables), les ressources (sources de données contextuelles) et les prompts (templates d’interaction réutilisables).

Techniquement, MCP utilise JSON-RPC 2.0 comme format de messages et supporte deux modes de transport. Le transport stdio convient aux serveurs locaux : l’hôte lance le serveur comme sous-processus et communique via entrées/sorties standard. Le transport Streamable HTTP adresse les déploiements distants avec authentification OAuth 2.1, Server-Sent Events pour le streaming et support des environnements serverless. Cette flexibilité permet aussi bien d’accéder à un système de fichiers local qu’à des APIs cloud sécurisées.

Genèse d’un standard : de l’interne Anthropic à la Linux Foundation

L’histoire de MCP commence en juillet 2024 dans les bureaux d’Anthropic. David Soria Parra travaille alors sur l’outillage interne quand il réalise une frustration partagée par ses collègues : Claude Desktop, malgré ses fonctionnalités comme Artifacts, reste une boîte fermée sans possibilité d’extension. « Je venais du monde de l’outillage développeur », explique-t-il sur le podcast Latent Space, « et j’appréciais énormément Claude Desktop, mais j’étais frustré par son côté limité, sans moyen de l’étendre. »

En quelques semaines, Parra et Spahr-Summers conçoivent les fondations du protocole. Le 25 novembre 2024, Anthropic publie MCP en open source avec une intégration native dans Claude Desktop, des SDKs Python et TypeScript, et une collection de serveurs de référence pour GitHub, Slack, Google Drive et PostgreSQL. Des partenaires comme Block (ex-Square), Apollo, Zed et Replit adoptent immédiatement le standard.

L’année 2025 transforme MCP d’expérience Anthropic en standard industriel. Le 26 mars 2025, Sam Altman annonce sur X le support MCP pour les produits OpenAI : « People love MCP and we are excited to add support across our products. » Cette adoption par le principal concurrent d’Anthropic constitue un tournant. En avril, Demis Hassabis confirme l’intégration dans les modèles Gemini de Google DeepMind. Le 19 mai 2025, lors de Microsoft Build, David Weston dévoile le support natif dans Windows 11 avec un nouveau composant système : l’On-device Agent Registry.

Le 9 décembre 2025 marque l’apothéose institutionnelle. Anthropic fait don de MCP à la nouvelle Agentic AI Foundation (AAIF), un fonds dirigé sous l’égide de la Linux Foundation. Co-fondée par Anthropic, Block et OpenAI, l’AAIF accueille également comme membres platine Amazon Web Services, Google, Microsoft, Bloomberg et Cloudflare. Trois projets fondateurs inaugurent cette fondation : MCP d’Anthropic, goose de Block (framework d’agents open source) et AGENTS.md d’OpenAI (standard de guidance pour agents de code).

Mike Krieger, Chief Product Officer d’Anthropic, résume cette transition : « MCP a commencé comme un projet interne pour résoudre un problème que nos propres équipes affrontaient. Un an plus tard, c’est devenu le standard industriel pour connecter les systèmes IA aux données et outils. Le donner à la Linux Foundation garantit qu’il restera ouvert, neutre et piloté par la communauté. »

Un écosystème en expansion rapide

L’adoption de MCP suit une courbe exponentielle rarement observée pour un standard technique. En un an, l’écosystème compte plus de 10 000 serveurs MCP actifs publics et le registry officiel lancé en septembre 2025 référence environ 2 000 serveurs vérifiés — une croissance de 407% en trois mois. La communauté Discord rassemble 2 900 contributeurs actifs avec une centaine de nouveaux participants chaque semaine.

Les grandes entreprises technologiques ont massivement investi dans l’écosystème. Chez OpenAI, MCP s’intègre à l’Agents SDK, l’application desktop ChatGPT, la Responses API et l’extension Codex. Srinivas Narayanan, CTO Applications B2B, précise : « Les standards ouverts sont essentiels à un web agentique sain. MCP fait maintenant partie de notre façon de construire chez OpenAI. » Google propose des serveurs MCP officiels pour Google Maps, AlloyDB et BigQuery, intégrés à son Agent Development Kit. Microsoft déploie MCP dans Windows 11, Copilot Studio, Azure OpenAI Services et le Semantic Kernel, tout en rejoignant le comité directeur du projet via GitHub.

Block incarne l’adoption enterprise exemplaire. Le Square MCP Server offre un accès programmatique complet aux APIs de paiement, tandis que les produits internes Square AI et Moneybot s’appuient sur MCP pour automatiser les insights clients. Dhanji Prasanna, CTO de Block, souligne : « Les technologies ouvertes comme MCP sont les ponts qui connectent l’IA aux applications du monde réel. »

L’écosystème des serveurs couvre désormais un spectre fonctionnel impressionnant :

  • Infrastructure développeur : GitHub (gestion repos, issues, PRs), Git, Postgres, Puppeteer, Playwright
  • Productivité : Slack, Notion, Google Drive, filesystem sécurisé
  • Bases de données : PostgreSQL, SQLite, Redis, BigQuery, SingleStore, AlloyDB
  • Intégrations métier : Stripe (paiements), Sentry (monitoring), Figma (design), Postman (tests API)
  • Plateformes d’agrégation : Zapier (8 000+ apps), Pipedream (2 500+ APIs), Rube (500+ apps)

Les cas d’usage concrets démontrent la polyvalence du protocole. Dans Claude Desktop, un utilisateur peut demander « Écris un poème et sauvegarde-le sur mon bureau » — Claude compose le texte et crée le fichier via le serveur filesystem. Les développeurs utilisent MCP pour interroger des bases de données en langage naturel, automatiser des workflows GitHub, ou créer des modèles 3D dans Blender via commandes conversationnelles. Chez Block, l’agent open source Goose orchestre des migrations de code complexes en enchaînant plusieurs outils MCP.

Architecture technique : sous le capot du protocole

MCP structure la communication en deux couches distinctes. La couche données implémente l’échange JSON-RPC 2.0 : gestion du cycle de vie, négociation des capacités, exécution des outils. La couche transport gère les canaux de communication, l’authentification et le framing des messages.

Lors de l’initialisation, client et serveur échangent leurs capacités via un handshake structuré. Le client déclare sa version de protocole et les fonctionnalités qu’il supporte (sampling, elicitation). Le serveur répond avec ses propres capacités : outils disponibles, ressources exposées, prompts définis. Cette négociation dynamique permet une découverte automatique des fonctionnalités sans configuration préalable.

Les outils constituent la primitive la plus utilisée. Définis par un schéma JSON strict (nom, description, paramètres d’entrée/sortie), ils représentent des fonctions exécutables que le LLM peut invoquer. Un outil météo typique spécifie un paramètre « location » obligatoire et un paramètre « units » optionnel. Contrairement aux ressources, les outils peuvent avoir des effets de bord — créer un fichier, envoyer un message, modifier une base de données.

Les ressources fonctionnent comme des endpoints GET dans une API REST : elles exposent des données sans effets de bord. Identifiées par des URIs uniques, elles supportent les templates dynamiques (file://documents/{name}) et les abonnements temps réel pour les mises à jour. Les prompts offrent des templates d’interaction réutilisables, exposés aux utilisateurs via commandes slash ou menus.

Le protocole introduit deux fonctionnalités côté client particulièrement puissantes. Le sampling permet à un serveur de demander au client d’effectuer une complétion LLM sans embarquer de SDK de modèle. L’elicitation autorise un serveur à solliciter des informations supplémentaires auprès de l’utilisateur en cours d’exécution — par exemple, proposer une date alternative si la réservation initiale échoue.

Cette architecture se distingue fondamentalement du function calling classique d’OpenAI. Là où ce dernier embarque les définitions d’outils directement dans chaque requête API (couplage fort, spécifique au modèle), MCP sépare strictement client et serveur. Les credentials restent isolés côté serveur sans jamais transiter vers le modèle. Un serveur MCP fonctionne avec n’importe quel client compatible, éliminant le vendor lock-in.

Enjeux de la standardisation : pourquoi MCP a gagné

L’émergence de MCP comme standard dominant ne relevait pas de l’évidence. OpenAPI existe depuis plus d’une décennie pour décrire les APIs REST. GraphQL propose l’introspection de schéma. Chaque grand acteur (OpenAI avec ses plugins, Google avec ses extensions) avait tenté d’imposer son approche propriétaire. Pourquoi MCP a-t-il réussi là où les autres ont échoué ?

La réponse tient en trois facteurs. Premièrement, MCP est AI-native by design. OpenAPI documente des patterns existants pour des développeurs humains ; MCP prescrit des patterns spécifiques optimisés pour les agents IA. La découverte dynamique, les sessions avec état, la validation stricte des schémas répondent aux besoins spécifiques des LLMs.

Deuxièmement, l’adoption croisée des concurrents a créé un cercle vertueux. Quand OpenAI, le rival direct d’Anthropic, embrasse MCP plutôt que de promouvoir une alternative, le signal envoyé à l’industrie est limpide. Nick Cooper, membre du staff technique OpenAI, reconnaît : « Toutes les plateformes avaient leurs propres tentatives — function calling, plugin APIs, extensions — mais aucune n’a vraiment décollé. »

Troisièmement, la gouvernance ouverte sous Linux Foundation dissipe les craintes de capture par un acteur unique. Jim Zemlin, directeur exécutif de la Linux Foundation, note : « La dominance émerge du mérite, pas du contrôle par un vendor. » MCP suit le chemin de Kubernetes, PyTorch et Node.js vers une neutralité institutionnelle.

Les comparaisons avec les alternatives éclairent ces avantages. Face à OpenAPI, MCP offre un serveur actif en temps réel plutôt qu’une spécification statique. Face au function calling, MCP garantit l’isolation des credentials et la portabilité cross-modèle. Face aux plugins ChatGPT, MCP propose un standard ouvert adoptable par toute plateforme. Le saut technique d’OpenAPI vers MCP reste néanmoins modeste : « OpenAPI est en quelque sorte un superset de l’information dont MCP a besoin », observe Sagar Batchu, CEO de Speakeasy.

Critiques et limitations : les zones d’ombre du protocole

L’enthousiasme autour de MCP ne doit pas masquer ses faiblesses actuelles. La communauté Hacker News a produit une critique mordante devenue virale : « The ‘S’ in MCP Stands for Security » — référence au fait que MCP ne contenait initialement aucun « S ».

Les vulnérabilités de sécurité constituent la préoccupation majeure. L’authentification était absente de la première version, puis l’implémentation OAuth 2.1 a suscité des controverses sur sa complexité. Les chercheurs ont documenté des vecteurs d’attaque inquiétants : tool poisoning (un serveur malveillant modifie dynamiquement ses descriptions après la confirmation utilisateur), prompt injection via données tierces (une ligne malicieuse dans une base Supabase peut compromettre l’agent), exfiltration de données via descriptions d’outils manipulées. Microsoft a identifié des serveurs MCP en production avec accès direct aux bases clients sans contrôles appropriés.

Les limitations de scalabilité posent également problème. Shrivu Shankar résume : « La fiabilité des LLMs corrèle négativement avec la quantité de contexte instructionnel fourni. » Multiplier les outils disponibles dégrade les performances du modèle et augmente les coûts. Un commentateur Hacker News tranche : « MCP ne scale pas. Il ne peut pas scaler au-delà d’un certain seuil. »

Pour les déploiements enterprise, plusieurs fonctionnalités critiques manquent à l’appel : attribution des coûts (impossible de tracer quels outils génèrent quelles dépenses), traçage distribué standardisé, contrôle d’accès basé sur les rôles (RBAC) granulaire, audit trails conformes GDPR/SOX. Aucune certification SOC 2, PCI DSS ou FedRAMP n’existe pour les implémentations MCP.

Les sceptiques questionnent même la valeur ajoutée fondamentale. Un développeur sur Hacker News observe : « Beaucoup parlent de MCP comme d’une merveille magique mystique, alors que ça revient juste à concaténer du JSON dans votre prompt. » Un autre argue que « les LLMs savent déjà parler à toutes les APIs qui se documentent avec des specs OpenAPI ».

Les défenseurs reconnaissent ces faiblesses tout en soulignant la dynamique d’amélioration. La critique et la scrutation sont devenues paradoxalement un atout : « Parce que MCP valait la peine d’être attaqué, il est devenu plus sûr », analyse The New Stack. La comparaison avec OAuth 2.0 — qualifié par son propre auteur d’insécurisé et défaillant mais ayant survécu via amélioration communautaire — suggère une trajectoire similaire.

Perspectives 2025-2027 : vers l’infrastructure critique de l’IA

La roadmap officielle publiée lors du premier anniversaire en novembre 2025 dessine l’évolution du protocole. Les Tasks introduiront une abstraction pour les opérations asynchrones de longue durée, ouvrant la voie aux communications agent-to-agent. Le support amélioré du statelessness facilitera le horizontal scaling pour les déploiements enterprise. La découverte de serveurs via URLs .well-known simplifiera l’onboarding. Des extensions officielles adresseront les besoins sectoriels spécifiques (santé, finance, éducation).

Les analystes de GetKnit projettent un marché des serveurs MCP atteignant 10,3 milliards de dollars d’ici fin 2025 avec un taux de croissance annuel de 34,6%. Si ces chiffres méritent la prudence habituelle envers les projections, ils reflètent l’ampleur des investissements en cours.

Deux scénarios d’évolution se dessinent. Le scénario de convergence voit MCP devenir le « HTTP des agents IA » — un standard universel comparable aux protocoles qui ont construit le web moderne. BCG affirme que « MCP émerge comme le standard de facto pour connecter les agents IA aux autres systèmes ». TechCrunch anticipe un « passage de plateformes fermées à un monde logiciel ouvert et interopérable rappelant les systèmes qui ont construit le web moderne ».

Le scénario de fragmentation reste plausible. Sagar Batchu prévient : « Il y aura une petite guerre des schémas pendant un moment… jusqu’à ce que ça se stabilise en quelque chose comme OpenAPI. » Le risque existe qu’une implémentation d’un acteur dominant devienne le défaut simplement parce qu’elle ship plus vite que les autres.

David Soria Parra articule l’objectif ultime : « Le but principal est d’avoir suffisamment d’adoption dans le monde pour que ce soit le standard de facto. Nous sommes tous mieux lotis avec un centre d’intégration ouvert où vous pouvez construire quelque chose une fois comme développeur et l’utiliser avec n’importe quel client. »

Conclusion

Le Model Context Protocol représente une inflexion majeure dans l’évolution de l’IA agentique. En résolvant élégamment le problème M×N de l’interopérabilité, en rassemblant concurrents historiques sous une gouvernance neutre, et en atteignant une masse critique d’adoption en moins d’un an, MCP a démontré qu’un standard ouvert pouvait s’imposer même dans un domaine dominé par des intérêts propriétaires divergents.

Les défis restent substantiels. La sécurité du protocole nécessite une maturation significative avant les déploiements mission-critical. Les fonctionnalités enterprise manquantes limiteront l’adoption dans les industries réglementées. La scalabilité intrinsèque — contrainte par les limites cognitives des LLMs face à trop de contexte — pose une question architecturale non résolue.

Mais l’élan est indéniable. Quand Anthropic, OpenAI, Google et Microsoft convergent vers un standard technique, quand la Linux Foundation institutionnalise cette convergence, quand des milliers de développeurs construisent un écosystème de serveurs en quelques mois, les conditions d’émergence d’une infrastructure critique sont réunies. MCP n’est plus une expérimentation — c’est le socle sur lequel se construit l’ère des agents IA.