Nous retracerons l'évolution de l'intégration des outils d'IA, expliquerons ce qu'est le protocole MCP (Model Context Protocol) et démontrerons pourquoi MCP seul n'est pas adapté à une utilisation en production. Nous explorerons ensuite des exemples concrets de passerelles permettant de connecter des agents d'IA à des outils externes.
Passerelles MCP compatibles et légères OpenAI
Conçu pour rendre les outils MCP facilement accessibles aux agents et aux clients IA. Priorité à la compatibilité avec les API OpenAI, les environnements de développement locaux ou les outils d'interface utilisateur.
Porte | Soutien au transport | Compatibilité de l'interface utilisateur | Format API LLM |
|---|---|---|---|
Pont MCP | – HTTP – WebSocket – SSE – MST | – Interface utilisateur Web ouverte – LM Studio – Autres | OpenAI /chat/completions |
Directeur.run | – WebSocket uniquement | – Interface utilisateur Web ouverte | OpenAI-style* |
Proxy MCP de LM Studio | – HTTP | – LM Studio uniquement | OpenAI-style |
Tout système imitant le format d'API de OpenAI
Pont MCP
MCP Bridge est une passerelle légère qui connecte les outils MCP aux clients utilisant le format d'API OpenAI. Son objectif est de rendre les outils MCP accessibles à tout client LLM, y compris ceux ne prenant pas en charge nativement MCP, grâce à une interface compatible. Si vous utilisez déjà des clients OpenAI, il s'agit de la solution la plus simple pour intégrer l'IA augmentée par des outils, sans modifier votre infrastructure existante.
Caractéristiques principales :
- Points de terminaison compatibles OpenAI : les clients d'IA peuvent utiliser les API de chat/saisie de style OpenAI pour interagir avec les outils MCP sans modification.
- Compatibilité avec les outils MCP : Prend en charge tout outil enregistré auprès d’un serveur MCP, y compris les outils qui utilisent des invites structurées ou des flux de travail d’échantillonnage, via des appels JSON-RPC standard.
- Pont SSE pour clients externes : expose une interface Server-Sent Events, permettant aux interfaces utilisateur Web ou aux frameworks d’agents de recevoir des mises à jour en direct des outils MCP sans interrogation ni maintien d’une connexion WebSocket.
Passerelles d'intégration d'outils pour MCP et IA agentielle
Conçu pour intégrer de nouveaux outils à MCP via des API REST ou des outils CLI. Prend souvent en charge une configuration sans code ou à faible code pour un développement plus rapide.
Lasso
Contrairement aux passerelles légères telles que MCP Bridge ou aux plateformes commerciales comme Zapier MCP Gateway, Lasso est conçu spécifiquement pour une sécurité de niveau entreprise.
Lancée en avril 2025, Lasso MCP Gateway est une couche proxy et d'orchestration open source qui se situe entre les agents d'IA et plusieurs serveurs MCP.
Considérez-le comme un point de coordination central, plutôt que de faire en sorte que chaque agent se connecte individuellement à chaque outil ; toutes les communications transitent par la passerelle. Cela simplifie l’architecture et facilite la gestion de l’accès aux outils, du routage et des performances.
Caractéristiques principales de Lasso
- Application de la sécurité par plugins : un système de garde-fous personnalisable permet aux développeurs d’appliquer des mesures de sécurité au niveau des requêtes et des réponses. Des plugins comme Presidio (pour la détection des données personnelles) peuvent inspecter, nettoyer ou bloquer le trafic avant qu’il n’atteigne les terminaux des outils.
- Journalisation structurée des audits : tous les appels d’outils, les exécutions d’invites et les lectures de ressources sont enregistrés au format JSON, avec des intégrations pour ELK, Prometheus et Grafana.
- Prise en charge de plusieurs protocoles : HTTP, WebSocket, SSE et STDIO, ce qui le rend adaptable à différents environnements de déploiement.
- Gouvernance centralisée : les serveurs virtuels et l’enregistrement des outils permettent aux administrateurs de définir des points de terminaison spécifiques au contexte pour les équipes ou les cas d’utilisation, avec des politiques d’accès par utilisateur et par locataire.
Passerelles MCP de niveau entreprise
Axé sur le déploiement à grande échelle, la sécurité, le routage des outils, la gestion des sessions et l'application des politiques au sein des équipes.
Passerelle MCP Zapier
Début 2025, Zapier a lancé son interface MCP . La couche MCP de Zapier convertit ses plus de 8 000 intégrations d'applications en points de terminaison compatibles MCP , permettant aux LLM et aux frameworks d'agents d'invoquer de véritables actions (par exemple, envoyer des messages Slack, mettre à jour des enregistrements Salesforce, déclencher des automatisations Gmail) avec une configuration minimale.
Zapier MCP Gateway propose une bibliothèque de plus de 1 000 connexions d'applications et plus de 30 000 actions via des points de terminaison compatibles MCP. Son utilisation est gratuite, avec des limites de 80 appels par heure, 160 par jour et 300 par mois.
Il offre une authentification intégrée, une limitation du débit et une gestion des points de terminaison.
Exemples de flux de travail :
- Interroger et mettre à jour une base de données PostgreSQL en utilisant le langage naturel
- Diffuser les annonces programmées sur les plateformes communautaires
- Créez et gérez des événements de calendrier à partir d'une seule requête utilisateur.
- Extraire et résumer le contenu web, puis le transférer sur Slack.
- Gérez des tâches complexes de bout en bout, comme la réservation d'un vol et son ajout à un calendrier, via une simple invite de chat.
Flux de travail d'IA que vous pouvez créer avec les passerelles Zapier MCP
- Utilisation des bases de données : Permettez à votre IA de localiser, d’insérer ou de modifier des données dans une table PostgreSQL, en fonction d’une entrée en langage naturel.
- Impliquez les communautés : Programmez l’envoi d’un message par votre IA.
- Gestion de la planification : Création automatique d’événements de calendrier à la demande d’un seul utilisateur.
- Résumer du contenu en ligne : Demandez à l’IA d’extraire les informations clés d’une page Web à l’aide d’outils comme Web Parser, puis transmettez le résumé à Slack ou à une autre application de messagerie.
- Activer les assistants conversationnels : Permettre aux utilisateurs de planifier des tâches complexes comme la réservation de vols par chat.
Par exemple, un utilisateur peut dire : « Réserver un siège côté hublot sur le prochain vol pour Chicago et l'ajouter à mon calendrier », et l'IA peut rechercher des vols, effectuer la réservation, programmer l'événement et confirmer.
IBM ContextForge
ContextForge (IBM) est une passerelle open source sous licence Apache 2.0 qui fédère les serveurs MCP, les protocoles agent-à-agent (A2A) et les API REST/gRPC via un point d'accès unique. Avec plus de 3 500 étoiles sur GitHub et un développement actif, c'est l'option open source la plus complète du marché actuel. La prise en charge du protocole A2A assure sa compatibilité avec les architectures multi-agents prévues dans la feuille de route MCP pour le troisième trimestre 2026. 3
Passerelle IA de Kong
Kong AI Gateway est idéal pour les entreprises utilisant déjà Kong pour la gestion de leurs API. Son principal atout réside dans sa capacité à exposer les API REST existantes en tant qu'outils MCP sans nécessiter de développement serveur MCP, un avantage considérable pour les organisations disposant d'un vaste parc d'API. 4
Passerelle MintMCP
MintMCP possède la certification SOC 2 Type II, un atout majeur pour les déploiements dans les secteurs de la santé et des services financiers, où les équipes d'approvisionnement exigeraient autrement des mois d'examen de sécurité avant d'approuver l'adoption de MCP. Cette certification inclut des pistes d'audit complètes, le contrôle d'accès basé sur les rôles (RBAC) et une surveillance en temps réel. 5
Source : Jahgirdar, Manoj 6
Démonstration de la passerelle MCP
Découvrez comment la passerelle IA utilise MCP pour suivre et gérer le trafic des agents en situation réelle. Dans cette démonstration, trois agents IA interagissent avec GitHub, Linear et OpenAI.
Pourquoi MCP a-t-il besoin d'une passerelle ?
En novembre 2024, Anthropic a introduit le Model Context Protocol (MCP), une norme ouverte conçue pour donner aux modèles d'IA une manière cohérente d'interagir avec des outils externes et des sources de données. 8 Avant MCP, chaque fois qu'un système d'IA devait interagir avec un outil externe, les développeurs construisaient une intégration personnalisée à partir de zéro : apprendre l'API de chaque système, écrire le code du connecteur, gérer l'authentification, gérer les limites de débit et maintenir le tout à mesure que les deux systèmes évoluaient.
MCP a éliminé cette taxe par intégration. En mars 2026, MCP avait atteint 97 millions de téléchargements mensuels de SDK et plus de 5 800 serveurs construits par la communauté, avec tous les principaux fournisseurs d'IA Anthropic, OpenAI, Google DeepMind, Microsoft et AWS l'ayant adopté. 9
MCP définit quels agents communiquent et comment ils communiquent avec les outils. En revanche, il ne définit pas où , quand et dans quelles conditions la couche opérationnelle et de sécurité requise pour les déploiements en production est nécessaire.
Le problème de fragmentation qui a émergé
À mesure que les équipes développaient davantage d'intégrations, un ensemble de problèmes prévisibles est apparu : duplication de la logique, interfaces incohérentes, absence de journaux d'audit standardisés, authentification basée sur des secrets statiques et absence de définition du comportement de la passerelle. La gestion des jetons, des sessions, la limitation du débit et les politiques de sécurité étaient résolues au cas par cas dans chaque intégration, au lieu d'être centralisées. La maintenance est devenue complexe et les risques de sécurité se sont multipliés.
Que fait une passerelle MCP ?
Une passerelle MCP est un proxy inverse conçu spécifiquement pour le protocole MCP (Model Context Protocol). Elle se situe entre les agents d'IA et les serveurs MCP, acheminant toutes les communications entre les outils via un point d'entrée unique et contrôlé, au lieu de permettre à chaque agent de se connecter directement à chaque outil.
Les passerelles API traditionnelles gèrent les paires requête/réponse HTTP sans état. Les passerelles MCP, quant à elles, doivent gérer les sessions persistantes, les échanges de découverte d'outils, les réponses en flux continu via SSE ou WebSocket, ainsi que le contexte accumulé au fil des appels d'outils lors d'un même cycle d'exécution d'agent. C'est pourquoi l'ajout de la prise en charge MCP à une passerelle API standard ne fonctionne pas correctement ; le protocole nécessite une infrastructure capable de comprendre sa sémantique.
Fonctionnalités principales fournies par une passerelle MCP :
- Routage et enregistrement centralisés : toutes les requêtes des agents transitent par un point de terminaison unique. La passerelle identifie l’agent demandeur, détermine l’outil utilisé et achemine la requête vers le serveur MCP approprié.
- Application des politiques et gouvernance : contrôle d’accès cohérent (qui peut utiliser quoi), limitation du débit (fréquence d’appel des outils) et isolation des locataires (séparation des données et des sessions entre les utilisateurs et les équipes).
- Continuité de session : Maintient la mémoire partagée et les données de session à portée limitée, permettant aux agents de conserver le contexte tout au long des interactions en plusieurs étapes.
- Efficacité opérationnelle : au lieu que chaque agent ouvre des connexions séparées à chaque outil avec des échanges redondants, des flux d'authentification et une sérialisation, la passerelle gère le routage, le traitement par lots et la réutilisation des sessions de manière centralisée.
- Observabilité unifiée : journalisation, surveillance, suivi des erreurs et analyse de l’utilisation centralisés. Les exigences relatives aux systèmes à haut risque de la loi européenne sur l’IA, qui entreront pleinement en vigueur en août 2026, imposent une journalisation et une traçabilité complètes pour chaque interaction avec un système d’IA, y compris les appels d’outils. Une passerelle constitue le mécanisme pratique permettant de répondre à cette exigence. 12
Feuille de route MCP : Quelles sont les nouveautés à venir pour les passerelles ?
La feuille de route officielle MCP 2026, publiée en mars 2026 par le responsable principal de la maintenance, David Soria Parra, identifie la préparation de l'entreprise comme l'un des quatre domaines prioritaires, aux côtés de l'évolutivité du transport, de la communication entre agents et de la maturation de la gouvernance. 13
Les lacunes spécifiques de l'entreprise que la feuille de route cible :
- Authentification gérée par l'entreprise (2e trimestre 2026) : passage des secrets clients statiques à OAuth 2.1 avec PKCE pour les agents web et à l'intégration SAML/OIDC pour les fournisseurs d'identité d'entreprise (Okta, Azure AD). Ceci lève les obstacles aux déploiements dans les secteurs réglementés.
- Modèles de passerelle et de proxy : Comportement protocolaire bien défini lorsqu’un client transite par un intermédiaire, couvrant la propagation de l’autorisation, la sémantique de session et les éléments que la passerelle est autorisée à examiner. Ces aspects ne sont actuellement pas définis, ce qui engendre une incertitude architecturale.
- Portabilité de la configuration : une norme permettant de configurer un serveur MCP une seule fois et de faire fonctionner cette configuration sur différents clients.
- Coordination entre agents (T3 2026) : Permettre à un agent d'en appeler un autre via MCP, créant des architectures hiérarchiques où les agents orchestrateurs délèguent à des sous-agents spécialisés.
- Registre MCP (T4 2026) : Un répertoire de serveurs organisé et vérifié, avec des audits de sécurité, des statistiques d’utilisation et des engagements SLA. 14
La feuille de route indique clairement qu'il s'agit de priorités et non d'engagements, et qu'aucun groupe de travail dédié aux entreprises n'a encore été constitué. Les organisations utilisant MCP en production dès aujourd'hui doivent anticiper ces lacunes : mettre en œuvre une journalisation d'audit structurée, éviter les dépendances fortes à l'égard de secrets statiques et concevoir une architecture prenant en compte les intermédiaires de passerelle avant même que le protocole ne les normalise. 15
Applications de passerelle MCP en conditions réelles
1. Pont MCP en tant que passerelle légère
Vous pouvez voir ici comment configurer et exécuter une passerelle MCP légère, plus précisément MCP Bridge, qui sert de couche de compatibilité entre les clients de style OpenAI et les outils MCP.
Source : GitHub 16
Principales sections de configuration dans MCP Bridge :
Cette configuration permet à des clients comme Open Web UI de communiquer avec les outils MCP sans nécessiter de prise en charge native de MCP.
Lorsque l'interface utilisateur Web ouverte est configurée pour pointer vers http://localhost:9090/v1 (le serveur MCP Bridge), et qu'un utilisateur saisit une invite telle que :
« Extraire les données du site et les résumer »
Open Web UI convertit cette invite en un appel API structuré, que MCP Bridge achemine ensuite vers l'outil MCP approprié :
L'appel API structuré :
2. Transport WebSocket dans MCP Bridge
Cet exemple montre comment MCP Bridge , fonctionnant comme une passerelle MCP, prend en charge le transport via WebSocket entre les clients d'IA et le SDK MCP. Il permet une communication bidirectionnelle en temps réel au format JSON-RPC.
Nous envoyons et recevons des messages structurés , plus précisément des objets MCP SessionMessage , qui encapsulent des messages JSON-RPC comme : { “jsonrpc”: “2.0”, “method”: “tools/list” }
Voici ce qui se passe à l'intérieur de la boucle :
1. Le client envoie un message JSON-RPC via WebSocket pour lister les outils disponibles :
2. MCP Bridge reçoit le message , le décode et l'encapsule dans un SessionMessage : le format standard attendu par le SDK MCP.
3. La boucle de lecture écoute en permanence les messages entrants du client, tandis que la boucle d'écriture renvoie les réponses au client.
4. Ces réponses sont formatées et envoyées via WebSocket. Cela permet au client d'interagir en temps réel avec le registre d'outils.
Une passerelle MCP est-elle la même chose qu'une passerelle API ?
Pas exactement. Les passerelles API sont conçues pour la communication client-serveur traditionnelle. Les passerelles MCP , quant à elles, sont optimisées pour les agents d'IA, prenant en charge les flux de travail contextuels, la gestion des sessions et l'orchestration standardisée des outils via le protocole MCP (Model Context Protocol).
Soyez le premier à commenter
Votre adresse courriel ne sera pas publiée. Tous les champs sont obligatoires.