Aller au contenu principal

Déployer un serveur MCP dans n8n : connecter vos agents IA à vos données en temps réel

Publié le 27 mars 2026 - Mis à jour le 6 avril 2026

Serveur MCP n8n - protocole Model Context Protocol connectant agents IA aux outils externes - Ocade Fusion
Tutoriel vidéo

Le guide en vidéo

Suivez pas à pas le déploiement d'un serveur MCP avec n8n en vidéo. Chaque étape est détaillée pour que vous puissiez reproduire la configuration sur votre propre instance.

Le Model Context Protocol (MCP) est un protocole ouvert créé par Anthropic fin 2024. Il standardise la facon dont les modeles de langage (Claude, GPT-4, Gemini) accedent à des outils et sources de données externes. Dans n8n, deux nœuds dedies - MCP Server Trigger et MCP Client Tool - permettent de déployer un serveur MCP complet sans ecrire une ligne de code serveur. Cet article detaille l’architecture, la configuration pas a pas et trois cas d’usage concrets testes en production. Pensez aussi a sauvegarder vos workflows n8n avec GitHub ou GitLab.

Mis à jour : mars 2026.

MCP vs API classique : quel gain pour votre projet ?

API classique

Dev initial20h
Maintenance / mois5h

Serveur MCP

Dev initial11h
Maintenance / mois1h

-10h

Dev initial

-4h

Maintenance / mois

-48h

Maintenance / an

MCP recommandé pour votre configuration

Avec 5 outils et 1 client(s) LLM, le serveur MCP centralise la maintenance et réduit le temps de dev cumulé.

Besoin d'aide pour mettre ça en place dans votre entreprise ?

Discutons de votre projet →

MCP vs API classiques : ce qui change concretement

Avec une integration API classique, chaque outil nécessite un connecteur spécifique : un pour Airtable, un pour Gmail, un pour NocoDB. L’agent IA doit connaitre a l’avance chaque endpoint, ses parametres, son format de réponse. Si vous ajoutez un outil, il faut modifier le code de l’agent.

MCP inverse cette logique. Le serveur expose une liste d’outils avec leurs schemas (nom, description, parametres attendus). L’agent IA decouvre automatiquement les outils disponibles via la méthode tools/list, puis les appelle avec tools/call. Ajoutez un outil cote serveur : l’agent le detecte et l’utilise sans modification.

CritereAPI classiqueServeur MCP
Decouverte des outilsManuelle (documentation)Automatique (tools/list)
Ajout d’un outilModifier le code de l’agentAjouter un nœud cote serveur
Schema des parametresVariable selon l’APIJSON Schema standardise
CompatibiliteUn connecteur par LLMUn serveur, tous les LLM compatibles MCP
ProtocoleREST/GraphQL propre à chaque APIJSON-RPC 2.0 (spec ouverte sur modelcontextprotocol.io)

Source : specification MCP, Anthropic, version du protocole 2025-06-18 (modelcontextprotocol.io).

Architecture : le flux complet dans n8n

Un déploiement MCP dans n8n met en jeu deux workflows distincts qui communiquent via une URL interne ou publique.

Workflow 1 - Le serveur MCP

Le nœud MCP Server Trigger ecoute les requêtes entrantes des agents. Il expose un path personnalisable (par exemple /mcp/mon-serveur) et généré deux URLs :

  • Test URL : active uniquement pendant l’exécution manuelle du workflow, pour le developpement
  • Production URL : active en permanence une fois le workflow active

En sortie du MCP Server Trigger, vous connectez les Tools : chaque nœud n8n branche en sous-workflow devient un outil expose a l’agent. Chaque tool porte un nom et une description que l’agent IA lira pour decider quand l’utiliser.

Workflow 2 - L’agent IA client

Le flux cote client suit cette sequence :

Chat Trigger → Agent IA (LLM + Memoire + System Prompt) → MCP Client Tool (URL du serveur)

Le nœud Agent IA recoit la question utilisateur, consulte son system prompt, decouvre les outils disponibles via le MCP Client Tool, et decide lesquels appeler. Le MCP Client Tool se connecte a l’URL du serveur MCP et sert d’intermediaire pour toutes les requêtes tools/list et tools/call.

Schema du flux

Utilisateur
    ↓
Chat Trigger
    ↓
Agent IA (Claude / GPT-4 / Gemini)
  ├── LLM (modele de langage)
  ├── Memoire (Window Buffer / Postgres)
  ├── System Prompt (description des capacites)
  └── MCP Client Tool ──→ [URL] ──→ MCP Server Trigger
                                          ├── Tool 1 : NocoDB (lecture/ecriture)
                                          ├── Tool 2 : Gmail (envoi email)
                                          ├── Tool 3 : HTTP Request (API tierce)
                                          └── Tool 4 : Code JS (calculs custom)

Configuration pas a pas : déployer votre premier serveur MCP

Etape 1 - Creer le workflow serveur

  1. Creer un nouveau workflow dans n8n
  2. Ajouter le nœud MCP Server Trigger comme point d’entree
  3. Definir le Path (exemple : /mcp/stock-manager)
  4. Connecter vos outils en sortie : chaque branche est un Tool expose

Exemple de tools connectes :

  • Un nœud NocoDB configure en lecture pour interroger le stock produits
  • Un nœud Code (JavaScript) qui calcule des delais de livraison
  • Un nœud Gmail qui envoie une confirmation de commande

Chaque tool doit avoir un nom explicite et une description claire : c’est ce que l’agent IA lira pour decider quel outil appeler. Exemple : “Rechercher un produit par reference dans la base NocoDB et retourner le stock disponible.”

Etape 2 - Creer le workflow agent client

  1. Creer un second workflow
  2. Ajouter un nœud Chat Trigger (point d’entree conversation)
  3. Ajouter un nœud Agent IA avec :
    • LLM : Claude 3.5 Sonnet, GPT-4, ou tout modele supportant le function calling
    • Memoire : Window Buffer Memory (conversations courtes) ou Postgres Chat Memory (persistance)
    • System Prompt : decrivez le role de l’agent et les actions qu’il peut effectuer
  4. Ajouter un nœud MCP Client Tool connecte a l’Agent IA
  5. Dans le MCP Client Tool, renseigner l’URL de production du serveur MCP (étape 1)

Etape 3 - Tester

  1. Activer les deux workflows
  2. Ouvrir le Chat Trigger et poser une question qui nécessite un outil (exemple : “Quel est le stock du produit REF-4521 ?”)
  3. Verifier dans les logs n8n que l’Agent appelle bien le bon Tool via MCP

Temps de déploiement constate : 15 a 30 minutes pour un serveur MCP fonctionnel avec 2-3 outils.

Trois cas d’usage concrets

1. Chatbot e-commerce : interroger le stock en temps réel

Contexte : un site e-commerce avec un catalogue de 2 000 references stockees dans NocoDB.

Tools exposes :

  • rechercher_produit : NocoDB - recherche par reference ou nom
  • verifier_stock : NocoDB - retourne la quantite disponible
  • calculer_livraison : Code JS - estime le delai selon le code postal

Resultat : l’agent repond directement au client avec la disponibilite et le delai, sans intervention humaine. Le temps de réponse moyen avec 3 outils est inferieur a 4 secondes.

2. Assistant support technique avec base de connaissances

Contexte : une équipe de 8 techniciens qui repondent aux mêmes questions recurrentes.

Tools exposes :

  • chercher_documentation : requête sur une base vectorielle Qdrant contenant la documentation interne
  • creer_ticket : HTTP Request vers l’API du helpdesk (Freshdesk, Zendesk)
  • notifier_technicien : Slack - envoie un message au canal support si escalade nécessaire

Resultat : l’agent resout les questions de niveau 1 en autonomie (environ 60 a 70 % des demandes selon les retours terrain). Les cas complexes sont escalades avec contexte complet au technicien.

3. Agent de gestion interne pour PME

Contexte : un dirigeant de PME (12 salaries) qui veut interroger ses données sans ouvrir 4 outils differents.

Tools exposes :

  • chiffre_affaires : NocoDB - requête sur la table factures avec filtre par periode
  • planning_equipe : Google Calendar API - retourne les disponibilites de la semaine
  • envoyer_email : Gmail - redige et envoie un email à un collaborateur
  • generer_rapport : Code JS - compile les données en tableau formate

Resultat : le dirigeant pose des questions en langage naturel (“Quel est le CA du mois ?”, “Qui est disponible jeudi ?”) et recoit une réponse synthetique en moins de 5 secondes.

Securite : les regles a respecter

Un serveur MCP expose des outils qui peuvent lire et ecrire des données. La sécurité n’est pas optionnelle.

Cinq regles non negociables

  1. Limiter les permissions par tool : un outil de lecture n’a pas besoin d’acces en ecriture. Configurez chaque nœud n8n avec les permissions minimales nécessaires.
  2. Ne jamais exposer le nœud Execute Command : ce nœud permet d’exécuter des commandes système. Un agent mal configure pourrait supprimer des fichiers ou acceder au serveur.
  3. Proteger l’URL de production : utilisez un header d’authentification (Bearer token) ou restreignez l’acces par IP. N’exposez jamais un serveur MCP sur Internet sans authentification.
  4. Tester en environnement isole : utilisez toujours l’URL de test pendant le developpement. Ne basculez en production qu’apres validation complete des outils.
  5. Décrire précisément chaque tool : une description vague (“gere les emails”) peut amener l’agent a utiliser l’outil dans un contexte non prevu. Soyez explicite : “Envoie un email de confirmation de commande au client via Gmail.”

Questions frequentes

Quelle est la difference entre MCP et une API REST ?

MCP est un protocole base sur JSON-RPC 2.0 specialement concu pour les agents IA. Contrairement à une API REST ou l’agent doit connaitre chaque endpoint a l’avance, MCP permet la decouverte automatique des outils (tools/list) avec leurs schemas JSON. L’agent comprend seul quels outils utiliser et comment les appeler. La specification complete est publique sur modelcontextprotocol.io.

Quels LLM sont compatibles avec MCP ?

MCP est supporte par Claude (Anthropic), ChatGPT (OpenAI), GitHub Copilot (VS Code, Cursor), et tout client implementant la specification. Dans n8n, le nœud Agent IA fonctionne avec n’importe quel LLM supportant le function calling : Claude 3.5 Sonnet, GPT-4, GPT-4o, Gemini Pro, Mistral Large, ou des modeles locaux via Ollama.

Combien de tools peut-on exposer sur un serveur MCP ?

Il n’y a pas de limite technique dans la specification MCP. En pratique, au-dela de 15-20 outils, l’agent IA peut avoir du mal a choisir le bon outil. Privilegiez des tools bien nommes et bien decrits. Si vous avez plus de 20 outils, envisagez de créer plusieurs serveurs MCP specialises (un par domaine fonctionnel).

MCP fonctionne-t-il en local uniquement ?

Non. MCP supporte deux modes de transport : stdio (communication locale entre processus sur la même machine) et Streamable HTTP (communication distante via HTTP avec Server-Sent Events). Dans n8n, le MCP Server Trigger utilise le transport HTTP, ce qui permet une connexion distante depuis n’importe quel agent IA heberge dans le cloud ou sur un autre serveur.

Faut-il des connaissances en developpement pour déployer MCP dans n8n ?

Non. L’avantage de l’integration n8n est que tout se configure visuellement. Le MCP Server Trigger et le MCP Client Tool sont des nœuds no-code. Les seuls éléments a renseigner sont l’URL de connexion, le choix du LLM, et la description des tools. Un utilisateur a l’aise avec n8n peut déployer un serveur MCP fonctionnel en moins de 30 minutes.

Cet article vous a été utile ? Contactez-moi pour en discuter ou pour un projet d'automatisation.