
Les serveurs MCP (Model Context Protocol) révolutionnent la manière dont les IA interagissent avec vos données. Plutôt que de laisser un LLM inventer des réponses basées sur Internet, vous pouvez lui fournir un accès direct et contrôlé à vos propres APIs et workflows. En activant le serveur MCP natif de N8N et en le connectant à VS Code ou Claude Desktop, vous créez un écosystème où l’IA devient un véritable agent intelligent capable d’interroger et d’exécuter vos workflows en temps réel.
Qu’est-ce qu’un serveur MCP ?
Un serveur MCP (Model Context Protocol) est un intermédiaire entre un LLM (comme Claude ou GPT) et vos actions métier. Au lieu de demander à l’IA de deviner ou de chercher sur Internet, vous lui mettez à disposition des outils structurés qui exécutent réellement des tâches dans vos systèmes : récupérer des données analytics, interroger une base de données, ou déclencher des workflows N8N.
Ce protocole, développé par Anthropic et adopté par Google et Microsoft, standardise la communication entre les applications IA et les outils externes. Concrètement, quand vous posez une question à un LLM connecté à un serveur MCP, celui-ci ne répond plus avec ses données d’entraînement : il recherche le workflow approprié, récupère ses détails, l’exécute, et vous retourne le résultat réel.
Pourquoi utiliser le MCP natif de N8N ?
- Contrôle total : Vos données restent chez vous, jamais partagées avec des services tiers.
- Résultats fiables : L’IA puise dans vos données réelles, pas sur Internet. Fini les hallucinations.
- Flexibilité : Ajoutez, modifiez ou supprimez des workflows sans dépendre d’un fournisseur.
- Intégration native : N8N expose directement vos workflows comme outils MCP, sans configuration complexe.
Activer le MCP dans N8N
Accédez à votre compte N8N et dirigez-vous vers les paramètres. Recherchez l’option MCP Access et activez-la. N8N propose deux modes de connexion : via email OAuth ou via access token. Le mode token est plus simple et sécurisé pour un environnement de production.
Créer un workflow compatible MCP
Pour qu’un workflow soit utilisable par le serveur MCP, il doit respecter une structure précise.
Structure requise
- Un nœud trigger : webhook, tâche cron, ou tout autre déclencheur.
- Votre logique métier : les nœuds qui traitent les données.
- Une réponse webhook : pour que le LLM puisse récupérer le résultat.
Étapes de configuration
1. Activer le trigger : Si le workflow n’est pas actif, le serveur MCP ne pourra pas le découvrir. Sauvegardez et activez votre workflow.
2. Déclarer le workflow comme MCP : Allez dans les paramètres du workflow et cochez « Available in MCP ». Sauvegardez.
3. Ajouter une description détaillée : C’est l’étape cruciale. Le LLM ne sait pas à quoi sert votre workflow. Cliquez sur l’icône « Edit workflow description » et décrivez précisément ce que fait le workflow, les données attendues en entrée, et ce qu’il retourne. Cette description guide le LLM pour choisir le bon workflow.
Connecter N8N MCP à VS Code Copilot
Étape 1 : Générer l’access token
Dans les paramètres N8N, section MCP Access, cliquez sur access token. Régénérez une clé API si nécessaire. N8N vous fournit un code JSON contenant l’URL de votre serveur et le token d’authentification. Copiez ce JSON entièrement.
Étape 2 : Configurer VS Code
Dans votre projet VS Code, créez un dossier .vscode à la racine, puis un fichier mcp.json à l’intérieur. Collez le JSON copié depuis N8N.
Attention à une différence syntaxique : le JSON de N8N utilise la clé « mcp servers », mais VS Code attend « servers ». Modifiez simplement le nom de la clé.
Étape 3 : Démarrer le serveur
Une fois le fichier sauvegardé, un bouton Start apparaît dans l’interface VS Code. Cliquez dessus pour lancer le serveur MCP. Dans le chat Copilot, vous voyez maintenant vos outils N8N MCP disponibles avec trois actions possibles : rechercher des workflows, récupérer des informations, exécuter des workflows.
Tester le serveur MCP
Demandez simplement au LLM : « Utilise ton serveur N8N MCP et fournis-moi un prénom aléatoire. »
Le LLM va alors exécuter trois actions successives :
- Rechercher les workflows disponibles : il interroge le serveur MCP pour lister les workflows compatibles.
- Récupérer les détails : une fois le workflow identifié, il récupère les informations nécessaires à son exécution.
- Exécuter le workflow : il lance l’exécution et récupère le résultat.
Résultat : le LLM retourne une donnée réelle, générée par votre workflow N8N, pas une invention basée sur ses données d’entraînement.
Cas d’usage : interroger vos données analytics
L’intérêt principal du serveur MCP N8N réside dans l’accès à vos données privées. Prenons un exemple concret : l’analyse de données web.
Au lieu d’interroger manuellement une API Matomo ou Google Analytics, vous écrivez simplement dans le chat : « Récupère-moi le nombre de visites du site il y a 3 jours et d’où proviennent la plupart des recherches. »
Le LLM va traduire votre demande en appels API structurés, exécuter le workflow approprié, et vous retourner les données réelles de votre outil d’analyse. Vous pouvez lui faire confiance parce qu’il puise dans vos données, pas sur Internet.
Sans serveur MCP, un LLM classique aurait tenté de chercher sur Internet. Mais il n’aurait pas accès à vos données privées. Voilà la vraie différence : contrôle total des données et résultats fiables.

Quel est l'objectif principal d'un serveur MCP connecté à N8N ?
Points clés pour réussir
- Description claire du workflow : Plus votre description est détaillée, mieux le LLM saura quand utiliser ce workflow.
- Workflow actif obligatoire : Un workflow inactif ne sera jamais découvert par le serveur MCP.
- Réponse webhook structurée : Retournez des données JSON bien formées plutôt que du texte brut. Le LLM les traitera mieux.
- Syntaxe du fichier mcp.json : N’oubliez pas de remplacer « mcp servers » par « servers » pour VS Code.
Conclusion
Le serveur MCP natif de N8N transforme votre relation avec l’IA. Vous passez d’un LLM généraliste qui invente des réponses à un agent spécialisé qui connaît vos données, vos processus et vos systèmes. En quelques étapes, vous activez le MCP dans N8N, créez des workflows compatibles, et les connectez à VS Code ou Claude Desktop.
L’intérêt est simple mais puissant : vous pouvez poser des questions en langage naturel et obtenir des réponses basées sur vos données réelles, pas sur Internet. C’est le fondement d’une IA vraiment utile pour votre activité.
Pour aller plus loin, explorez nos autres ressources N8N ou contactez notre équipe pour concevoir une stratégie MCP adaptée à vos besoins métier.
Un serveur MCP (Model Context Protocol) est un intermédiaire entre un LLM et vos actions métier. Il permet à l’IA d’exécuter des tâches dans vos systèmes (récupérer des données, interroger des APIs, déclencher des workflows) au lieu de deviner ou chercher sur Internet.
Accédez à vos paramètres de compte N8N, recherchez l’option MCP Access et activez-la. Choisissez le mode access token (recommandé), générez une clé API, puis copiez le JSON fourni pour l’intégrer dans votre client (VS Code ou Claude Desktop).
Un workflow MCP-compatible doit avoir : (1) un nœud trigger (webhook, cron, etc.), (2) votre logique métier, (3) une réponse webhook retournant le résultat. Il doit être actif, marqué ‘Available in MCP’ dans les paramètres, et avoir une description détaillée expliquant son objectif.
Le LLM ne sait pas à quoi sert votre workflow. La description lui permet de comprendre quand l’utiliser, quelles données il attend en entrée, et ce qu’il retourne. Sans description claire, le LLM ne sélectionnera pas le bon workflow pour répondre à votre demande.
Un LLM classique répond avec ses données d’entraînement ou cherche sur Internet. Un LLM connecté à un serveur MCP peut exécuter vos workflows et accéder à vos données privées. Les résultats sont fiables car ils proviennent de vos systèmes réels, pas d’Internet.
Oui, le serveur MCP de N8N fonctionne avec VS Code Copilot et Claude Desktop. La configuration est similaire : vous copiez le JSON d’authentification fourni par N8N et le collez dans le fichier de configuration du client.
