Accueil » 📂N8N » 🇫🇷 Déployer un serveur MCP autonome et l’intégrer à N8N
Valentin Charrier présentant le guide complet pour déployer un serveur MCP autonome et l'intégrer à N8N

Les serveurs MCP (Model Context Protocol) révolutionnent la manière dont les IA interagissent avec vos données. Plutôt que de laisser un LLM inventer des réponses basées sur Internet, vous pouvez lui fournir un accès direct et contrôlé à vos propres APIs et workflows. En activant le serveur MCP natif de N8N et en le connectant à VS Code ou Claude Desktop, vous créez un écosystème où l’IA devient un véritable agent intelligent capable d’interroger et d’exécuter vos workflows en temps réel.

Qu’est-ce qu’un serveur MCP ?

Un serveur MCP (Model Context Protocol) est un intermédiaire entre un LLM (comme Claude ou GPT) et vos actions métier. Au lieu de demander à l’IA de deviner ou de chercher sur Internet, vous lui mettez à disposition des outils structurés qui exécutent réellement des tâches dans vos systèmes : récupérer des données analytics, interroger une base de données, ou déclencher des workflows N8N.

Ce protocole, développé par Anthropic et adopté par Google et Microsoft, standardise la communication entre les applications IA et les outils externes. Concrètement, quand vous posez une question à un LLM connecté à un serveur MCP, celui-ci ne répond plus avec ses données d’entraînement : il recherche le workflow approprié, récupère ses détails, l’exécute, et vous retourne le résultat réel.

Pourquoi utiliser le MCP natif de N8N ?

Activer le MCP dans N8N

Accédez à votre compte N8N et dirigez-vous vers les paramètres. Recherchez l’option MCP Access et activez-la. N8N propose deux modes de connexion : via email OAuth ou via access token. Le mode token est plus simple et sécurisé pour un environnement de production.

Créer un workflow compatible MCP

Pour qu’un workflow soit utilisable par le serveur MCP, il doit respecter une structure précise.

Structure requise

Étapes de configuration

1. Activer le trigger : Si le workflow n’est pas actif, le serveur MCP ne pourra pas le découvrir. Sauvegardez et activez votre workflow.

2. Déclarer le workflow comme MCP : Allez dans les paramètres du workflow et cochez « Available in MCP ». Sauvegardez.

3. Ajouter une description détaillée : C’est l’étape cruciale. Le LLM ne sait pas à quoi sert votre workflow. Cliquez sur l’icône « Edit workflow description » et décrivez précisément ce que fait le workflow, les données attendues en entrée, et ce qu’il retourne. Cette description guide le LLM pour choisir le bon workflow.

Connecter N8N MCP à VS Code Copilot

Étape 1 : Générer l’access token

Dans les paramètres N8N, section MCP Access, cliquez sur access token. Régénérez une clé API si nécessaire. N8N vous fournit un code JSON contenant l’URL de votre serveur et le token d’authentification. Copiez ce JSON entièrement.

Étape 2 : Configurer VS Code

Dans votre projet VS Code, créez un dossier .vscode à la racine, puis un fichier mcp.json à l’intérieur. Collez le JSON copié depuis N8N.

Attention à une différence syntaxique : le JSON de N8N utilise la clé « mcp servers », mais VS Code attend « servers ». Modifiez simplement le nom de la clé.

Étape 3 : Démarrer le serveur

Une fois le fichier sauvegardé, un bouton Start apparaît dans l’interface VS Code. Cliquez dessus pour lancer le serveur MCP. Dans le chat Copilot, vous voyez maintenant vos outils N8N MCP disponibles avec trois actions possibles : rechercher des workflows, récupérer des informations, exécuter des workflows.

Tester le serveur MCP

Demandez simplement au LLM : « Utilise ton serveur N8N MCP et fournis-moi un prénom aléatoire. »

Le LLM va alors exécuter trois actions successives :

Résultat : le LLM retourne une donnée réelle, générée par votre workflow N8N, pas une invention basée sur ses données d’entraînement.

Cas d’usage : interroger vos données analytics

L’intérêt principal du serveur MCP N8N réside dans l’accès à vos données privées. Prenons un exemple concret : l’analyse de données web.

Au lieu d’interroger manuellement une API Matomo ou Google Analytics, vous écrivez simplement dans le chat : « Récupère-moi le nombre de visites du site il y a 3 jours et d’où proviennent la plupart des recherches. »

Le LLM va traduire votre demande en appels API structurés, exécuter le workflow approprié, et vous retourner les données réelles de votre outil d’analyse. Vous pouvez lui faire confiance parce qu’il puise dans vos données, pas sur Internet.

Sans serveur MCP, un LLM classique aurait tenté de chercher sur Internet. Mais il n’aurait pas accès à vos données privées. Voilà la vraie différence : contrôle total des données et résultats fiables.

Quotien Intellectuel pour illustrer l'apprentissage du noeud N8N

Quel est l'objectif principal d'un serveur MCP connecté à N8N ?

Points clés pour réussir

Conclusion

Le serveur MCP natif de N8N transforme votre relation avec l’IA. Vous passez d’un LLM généraliste qui invente des réponses à un agent spécialisé qui connaît vos données, vos processus et vos systèmes. En quelques étapes, vous activez le MCP dans N8N, créez des workflows compatibles, et les connectez à VS Code ou Claude Desktop.

L’intérêt est simple mais puissant : vous pouvez poser des questions en langage naturel et obtenir des réponses basées sur vos données réelles, pas sur Internet. C’est le fondement d’une IA vraiment utile pour votre activité.

Pour aller plus loin, explorez nos autres ressources N8N ou contactez notre équipe pour concevoir une stratégie MCP adaptée à vos besoins métier.

Qu’est-ce qu’un serveur MCP et à quoi sert-il ?

Un serveur MCP (Model Context Protocol) est un intermédiaire entre un LLM et vos actions métier. Il permet à l’IA d’exécuter des tâches dans vos systèmes (récupérer des données, interroger des APIs, déclencher des workflows) au lieu de deviner ou chercher sur Internet.

Comment activer le MCP dans N8N ?

Accédez à vos paramètres de compte N8N, recherchez l’option MCP Access et activez-la. Choisissez le mode access token (recommandé), générez une clé API, puis copiez le JSON fourni pour l’intégrer dans votre client (VS Code ou Claude Desktop).

Quelles conditions un workflow doit-il respecter pour être compatible MCP ?

Un workflow MCP-compatible doit avoir : (1) un nœud trigger (webhook, cron, etc.), (2) votre logique métier, (3) une réponse webhook retournant le résultat. Il doit être actif, marqué ‘Available in MCP’ dans les paramètres, et avoir une description détaillée expliquant son objectif.

Pourquoi la description du workflow est-elle si importante ?

Le LLM ne sait pas à quoi sert votre workflow. La description lui permet de comprendre quand l’utiliser, quelles données il attend en entrée, et ce qu’il retourne. Sans description claire, le LLM ne sélectionnera pas le bon workflow pour répondre à votre demande.

Quelle est la différence entre un LLM classique et un LLM connecté à un serveur MCP ?

Un LLM classique répond avec ses données d’entraînement ou cherche sur Internet. Un LLM connecté à un serveur MCP peut exécuter vos workflows et accéder à vos données privées. Les résultats sont fiables car ils proviennent de vos systèmes réels, pas d’Internet.

Le serveur MCP fonctionne-t-il avec Claude Desktop ?

Oui, le serveur MCP de N8N fonctionne avec VS Code Copilot et Claude Desktop. La configuration est similaire : vous copiez le JSON d’authentification fourni par N8N et le collez dans le fichier de configuration du client.


Vous recherchez d’autres contenus ?