Aller au contenu principal
← Retour au blog

Deployer un serveur MCP dans n8n : connecter vos agents IA a vos donnees en temps reel

Publié le 27 mars 2026

Serveur MCP n8n - protocole Model Context Protocol connectant agents IA aux outils externes - Ocade Fusion

Le Model Context Protocol (MCP) est un protocole ouvert cree par Anthropic fin 2024. Il standardise la facon dont les modeles de langage (Claude, GPT-4, Gemini) accedent a des outils et sources de donnees externes. Dans n8n, deux noeuds dedies - MCP Server Trigger et MCP Client Tool - permettent de deployer un serveur MCP complet sans ecrire une ligne de code serveur. Cet article detaille l’architecture, la configuration pas a pas et trois cas d’usage concrets testes en production. Pensez aussi a sauvegarder vos workflows n8n avec GitHub ou GitLab.

Mis a jour : mars 2026.

MCP vs API classique : quel gain pour votre projet ?

API classique

Dev initial20h
Maintenance / mois5h

Serveur MCP

Dev initial11h
Maintenance / mois1h

-10h

Dev initial

-4h

Maintenance / mois

-48h

Maintenance / an

MCP recommande pour votre configuration

Avec 5 outils et 1 client(s) LLM, le serveur MCP centralise la maintenance et reduit le temps de dev cumule.

Besoin d'aide pour mettre ca en place dans votre entreprise ?

Discutons de votre projet →

MCP vs API classiques : ce qui change concretement

Avec une integration API classique, chaque outil necessite un connecteur specifique : un pour Airtable, un pour Gmail, un pour NocoDB. L’agent IA doit connaitre a l’avance chaque endpoint, ses parametres, son format de reponse. Si vous ajoutez un outil, il faut modifier le code de l’agent.

MCP inverse cette logique. Le serveur expose une liste d’outils avec leurs schemas (nom, description, parametres attendus). L’agent IA decouvre automatiquement les outils disponibles via la methode tools/list, puis les appelle avec tools/call. Ajoutez un outil cote serveur : l’agent le detecte et l’utilise sans modification.

Critere API classique Serveur MCP
Decouverte des outils Manuelle (documentation) Automatique (tools/list)
Ajout d’un outil Modifier le code de l’agent Ajouter un noeud cote serveur
Schema des parametres Variable selon l’API JSON Schema standardise
Compatibilite Un connecteur par LLM Un serveur, tous les LLM compatibles MCP
Protocole REST/GraphQL propre a chaque API JSON-RPC 2.0 (spec ouverte sur modelcontextprotocol.io)

Source : specification MCP, Anthropic, version du protocole 2025-06-18 (modelcontextprotocol.io).

Architecture : le flux complet dans n8n

Un deploiement MCP dans n8n met en jeu deux workflows distincts qui communiquent via une URL interne ou publique.

Workflow 1 - Le serveur MCP

Le noeud MCP Server Trigger ecoute les requetes entrantes des agents. Il expose un path personnalisable (par exemple /mcp/mon-serveur) et genere deux URLs :

  • Test URL : active uniquement pendant l’execution manuelle du workflow, pour le developpement
  • Production URL : active en permanence une fois le workflow active

En sortie du MCP Server Trigger, vous connectez les Tools : chaque noeud n8n branche en sous-workflow devient un outil expose a l’agent. Chaque tool porte un nom et une description que l’agent IA lira pour decider quand l’utiliser.

Workflow 2 - L’agent IA client

Le flux cote client suit cette sequence :

Chat Trigger → Agent IA (LLM + Memoire + System Prompt) → MCP Client Tool (URL du serveur)

Le noeud Agent IA recoit la question utilisateur, consulte son system prompt, decouvre les outils disponibles via le MCP Client Tool, et decide lesquels appeler. Le MCP Client Tool se connecte a l’URL du serveur MCP et sert d’intermediaire pour toutes les requetes tools/list et tools/call.

Schema du flux

Utilisateur
    ↓
Chat Trigger
    ↓
Agent IA (Claude / GPT-4 / Gemini)
  ├── LLM (modele de langage)
  ├── Memoire (Window Buffer / Postgres)
  ├── System Prompt (description des capacites)
  └── MCP Client Tool ──→ [URL] ──→ MCP Server Trigger
                                          ├── Tool 1 : NocoDB (lecture/ecriture)
                                          ├── Tool 2 : Gmail (envoi email)
                                          ├── Tool 3 : HTTP Request (API tierce)
                                          └── Tool 4 : Code JS (calculs custom)

Configuration pas a pas : deployer votre premier serveur MCP

Etape 1 - Creer le workflow serveur

  1. Creer un nouveau workflow dans n8n
  2. Ajouter le noeud MCP Server Trigger comme point d’entree
  3. Definir le Path (exemple : /mcp/stock-manager)
  4. Connecter vos outils en sortie : chaque branche est un Tool expose

Exemple de tools connectes :

  • Un noeud NocoDB configure en lecture pour interroger le stock produits
  • Un noeud Code (JavaScript) qui calcule des delais de livraison
  • Un noeud Gmail qui envoie une confirmation de commande

Chaque tool doit avoir un nom explicite et une description claire : c’est ce que l’agent IA lira pour decider quel outil appeler. Exemple : “Rechercher un produit par reference dans la base NocoDB et retourner le stock disponible.”

Etape 2 - Creer le workflow agent client

  1. Creer un second workflow
  2. Ajouter un noeud Chat Trigger (point d’entree conversation)
  3. Ajouter un noeud Agent IA avec :
    • LLM : Claude 3.5 Sonnet, GPT-4, ou tout modele supportant le function calling
    • Memoire : Window Buffer Memory (conversations courtes) ou Postgres Chat Memory (persistance)
    • System Prompt : decrivez le role de l’agent et les actions qu’il peut effectuer
  4. Ajouter un noeud MCP Client Tool connecte a l’Agent IA
  5. Dans le MCP Client Tool, renseigner l’URL de production du serveur MCP (etape 1)

Etape 3 - Tester

  1. Activer les deux workflows
  2. Ouvrir le Chat Trigger et poser une question qui necessite un outil (exemple : “Quel est le stock du produit REF-4521 ?”)
  3. Verifier dans les logs n8n que l’Agent appelle bien le bon Tool via MCP

Temps de deploiement constate : 15 a 30 minutes pour un serveur MCP fonctionnel avec 2-3 outils.

Trois cas d’usage concrets

1. Chatbot e-commerce : interroger le stock en temps reel

Contexte : un site e-commerce avec un catalogue de 2 000 references stockees dans NocoDB.

Tools exposes :

  • rechercher_produit : NocoDB - recherche par reference ou nom
  • verifier_stock : NocoDB - retourne la quantite disponible
  • calculer_livraison : Code JS - estime le delai selon le code postal

Resultat : l’agent repond directement au client avec la disponibilite et le delai, sans intervention humaine. Le temps de reponse moyen avec 3 outils est inferieur a 4 secondes.

2. Assistant support technique avec base de connaissances

Contexte : une equipe de 8 techniciens qui repondent aux memes questions recurrentes.

Tools exposes :

  • chercher_documentation : requete sur une base vectorielle Qdrant contenant la documentation interne
  • creer_ticket : HTTP Request vers l’API du helpdesk (Freshdesk, Zendesk)
  • notifier_technicien : Slack - envoie un message au canal support si escalade necessaire

Resultat : l’agent resout les questions de niveau 1 en autonomie (environ 60 a 70 % des demandes selon les retours terrain). Les cas complexes sont escalades avec contexte complet au technicien.

3. Agent de gestion interne pour PME

Contexte : un dirigeant de PME (12 salaries) qui veut interroger ses donnees sans ouvrir 4 outils differents.

Tools exposes :

  • chiffre_affaires : NocoDB - requete sur la table factures avec filtre par periode
  • planning_equipe : Google Calendar API - retourne les disponibilites de la semaine
  • envoyer_email : Gmail - redige et envoie un email a un collaborateur
  • generer_rapport : Code JS - compile les donnees en tableau formate

Resultat : le dirigeant pose des questions en langage naturel (“Quel est le CA du mois ?”, “Qui est disponible jeudi ?”) et recoit une reponse synthetique en moins de 5 secondes.

Securite : les regles a respecter

Un serveur MCP expose des outils qui peuvent lire et ecrire des donnees. La securite n’est pas optionnelle.

Cinq regles non negociables

  1. Limiter les permissions par tool : un outil de lecture n’a pas besoin d’acces en ecriture. Configurez chaque noeud n8n avec les permissions minimales necessaires.
  2. Ne jamais exposer le noeud Execute Command : ce noeud permet d’executer des commandes systeme. Un agent mal configure pourrait supprimer des fichiers ou acceder au serveur.
  3. Proteger l’URL de production : utilisez un header d’authentification (Bearer token) ou restreignez l’acces par IP. N’exposez jamais un serveur MCP sur Internet sans authentification.
  4. Tester en environnement isole : utilisez toujours l’URL de test pendant le developpement. Ne basculez en production qu’apres validation complete des outils.
  5. Decrire precisement chaque tool : une description vague (“gere les emails”) peut amener l’agent a utiliser l’outil dans un contexte non prevu. Soyez explicite : “Envoie un email de confirmation de commande au client via Gmail.”

Questions frequentes

Quelle est la difference entre MCP et une API REST ?

MCP est un protocole base sur JSON-RPC 2.0 specialement concu pour les agents IA. Contrairement a une API REST ou l’agent doit connaitre chaque endpoint a l’avance, MCP permet la decouverte automatique des outils (tools/list) avec leurs schemas JSON. L’agent comprend seul quels outils utiliser et comment les appeler. La specification complete est publique sur modelcontextprotocol.io.

Quels LLM sont compatibles avec MCP ?

MCP est supporte par Claude (Anthropic), ChatGPT (OpenAI), GitHub Copilot (VS Code, Cursor), et tout client implementant la specification. Dans n8n, le noeud Agent IA fonctionne avec n’importe quel LLM supportant le function calling : Claude 3.5 Sonnet, GPT-4, GPT-4o, Gemini Pro, Mistral Large, ou des modeles locaux via Ollama.

Combien de tools peut-on exposer sur un serveur MCP ?

Il n’y a pas de limite technique dans la specification MCP. En pratique, au-dela de 15-20 outils, l’agent IA peut avoir du mal a choisir le bon outil. Privilegiez des tools bien nommes et bien decrits. Si vous avez plus de 20 outils, envisagez de creer plusieurs serveurs MCP specialises (un par domaine fonctionnel).

MCP fonctionne-t-il en local uniquement ?

Non. MCP supporte deux modes de transport : stdio (communication locale entre processus sur la meme machine) et Streamable HTTP (communication distante via HTTP avec Server-Sent Events). Dans n8n, le MCP Server Trigger utilise le transport HTTP, ce qui permet une connexion distante depuis n’importe quel agent IA heberge dans le cloud ou sur un autre serveur.

Faut-il des connaissances en developpement pour deployer MCP dans n8n ?

Non. L’avantage de l’integration n8n est que tout se configure visuellement. Le MCP Server Trigger et le MCP Client Tool sont des noeuds no-code. Les seuls elements a renseigner sont l’URL de connexion, le choix du LLM, et la description des tools. Un utilisateur a l’aise avec n8n peut deployer un serveur MCP fonctionnel en moins de 30 minutes.

Cet article vous a été utile ? Contactez-moi pour en discuter ou pour un projet d'automatisation.