
Intégrer l’intelligence artificielle dans vos workflows N8N ouvre un champ d’automatisations puissant : génération de contenu, analyse de données, chatbots intelligents. Le nœud Basic LLM Chain est la brique fondamentale pour connecter N8N à des modèles de langage comme GPT, Claude ou Mistral. Ce guide vous accompagne pas à pas dans la configuration des credentials OpenAI et OpenRouter, le paramétrage du nœud LLM Chain, et la maîtrise des options avancées pour obtenir des réponses structurées et exploitables dans vos automatisations.
Qu’est-ce qu’un LLM Chain ?
Un LLM Chain (Large Language Model Chain) est un nœud N8N qui permet de communiquer avec un modèle d’intelligence artificielle générative. Concrètement, il reçoit une entrée (une question, un texte, une instruction), l’envoie à un LLM via une API, et retourne la réponse générée. C’est l’interface entre vos workflows d’automatisation et la puissance des modèles de langage.
Le Basic LLM Chain se distingue des agents IA plus complexes : il exécute une tâche simple et directe, sans mémoire de conversation ni capacité à appeler d’autres outils. Cette simplicité en fait le point d’entrée idéal pour découvrir l’intégration IA dans N8N avant de passer à des architectures plus élaborées.
OpenAI vs OpenRouter : quelle solution choisir ?
Pour utiliser le nœud LLM Chain, vous devez connecter N8N à un fournisseur de modèles IA via une clé API. Deux options principales s’offrent à vous : OpenAI directement, ou OpenRouter comme passerelle universelle.
OpenAI : accès direct aux modèles GPT
OpenAI est le créateur de ChatGPT et des modèles GPT-3.5, GPT-4 et GPT-4o. En créant un compte sur platform.openai.com, vous obtenez une clé API qui donne accès exclusivement aux modèles OpenAI. Cette solution convient si vous souhaitez utiliser uniquement les modèles GPT.
OpenRouter : une passerelle multi-modèles
OpenRouter fonctionne comme un agrégateur : un seul compte, une seule clé API, et l’accès à tous les modèles du marché. GPT-4, Claude, Mistral, Llama, Gemini : vous choisissez le modèle adapté à chaque tâche sans multiplier les comptes et les facturations. Pour des tests comparatifs ou une utilisation multi-modèles, OpenRouter simplifie considérablement la gestion.
Récupérer les clés API
Clé API OpenAI
- Rendez-vous sur platform.openai.com et créez un compte.
- Ajoutez un moyen de paiement (carte bancaire requise pour activer l’API).
- Dans le menu latéral, cliquez sur API Keys.
- Cliquez sur Create new secret key et copiez la clé générée.
La clé ressemble à une longue chaîne de caractères du type sk-proj-xxxxxxxxxxxxx. Conservez-la précieusement : elle ne sera plus affichée après fermeture de la fenêtre.
Clé API OpenRouter
- Créez un compte sur openrouter.ai.
- Ajoutez des crédits via votre carte bancaire.
- Dans votre profil, accédez à la section Keys.
- Cliquez sur Create Key et copiez la clé générée.
Configurer les credentials dans N8N
Une fois vos clés API en main, vous pouvez créer les credentials dans N8N. Cette étape permet à vos workflows d’authentifier les appels vers les modèles IA.
Étape 1 : Accéder aux credentials
Depuis la page d’accueil de N8N, cliquez sur Credentials dans le menu latéral. Cliquez sur la flèche à côté de « Create » et sélectionnez Create Credential.
Étape 2 : Créer le credential OpenAI ou OpenRouter
Recherchez « OpenAI » ou « OpenRouter » dans la liste. Sélectionnez le service correspondant et cliquez sur Continue. Un seul champ est requis : API Key. Collez la clé que vous avez récupérée précédemment.
Étape 3 : Sauvegarder
Cliquez sur Save. N8N valide automatiquement la connexion. Si tout est correct, votre credential est prêt à être utilisé dans vos workflows. Conseil : renommez vos credentials de manière explicite (exemple : « OpenRouter – Production ») pour les identifier facilement si vous en gérez plusieurs.
Ajouter le nœud Basic LLM Chain
Créez un nouveau workflow dans N8N. Cliquez sur le bouton + et recherchez « LLM Chain ». Sélectionnez Basic LLM Chain. Le nœud s’insère avec une connexion « Chat » prévue pour recevoir un déclencheur conversationnel.
Connectez ensuite votre modèle IA au nœud LLM Chain. Si vous utilisez OpenRouter, ajoutez un sous-nœud OpenRouter Chat Model et sélectionnez le credential créé précédemment. Vous pouvez alors choisir parmi tous les modèles disponibles : GPT-3.5 Turbo pour des tests rapides et économiques, GPT-4 pour des tâches complexes, ou Claude et Mistral selon vos préférences.
Comprendre les paramètres du modèle IA
Chaque modèle IA connecté au LLM Chain propose des réglages avancés qui influencent la qualité et le comportement des réponses générées. Voici les principaux paramètres à maîtriser.
Temperature : créativité vs précision
La température contrôle le degré de créativité de la réponse. Une valeur basse (proche de 0) produit des réponses prévisibles et factuelles, idéales pour des tâches de classification ou d’extraction de données. Une valeur haute (proche de 1) libère l’imagination du modèle, adaptée à la génération créative de contenu.
Maximum Number of Tokens
Ce paramètre définit la longueur maximale de la réponse. Un token correspond approximativement à 4-5 caractères. Ajustez cette valeur selon vos besoins : une réponse courte pour une classification, plusieurs milliers de tokens pour un article complet.
Frequency Penalty et Presence Penalty
- Frequency Penalty : diminue la probabilité que le modèle répète les mêmes mots ou phrases. Utile pour éviter les réponses redondantes.
- Presence Penalty : encourage ou décourage l’introduction de nouveaux sujets. Une valeur positive pousse le modèle à explorer de nouvelles idées.
Top P (Nucleus Sampling)
Le Top P limite les choix de tokens aux plus probables jusqu’à un certain seuil cumulé. À ne pas combiner avec une température élevée : utilisez l’un ou l’autre pour éviter des comportements imprévisibles.
Timeout et Max Retries
- Timeout : temps maximum d’attente avant d’interrompre la requête (en millisecondes). Évite les blocages si l’API ne répond pas.
- Max Retries : nombre de tentatives en cas d’erreur. Augmente la robustesse du workflow face aux erreurs temporaires de l’API.
Configurer le nœud Basic LLM Chain
Le nœud Basic LLM Chain propose deux panneaux de configuration : Parameters pour les entrées/sorties, et Settings pour le comportement d’exécution.
Panneau Parameters
Le réglage principal est Source for Prompt User Message. Deux options s’offrent à vous :
- Chat Trigger : le nœud reçoit les messages depuis un déclencheur de chat (interface N8N ou chatbot externe).
- Define Below : vous définissez manuellement le prompt d’entrée, avec la possibilité d’injecter des variables N8N par glisser-déposer.
Vous pouvez également ajouter un System Prompt via « Add Prompt ». Ce prompt système donne des instructions globales au modèle : format de réponse attendu, ton, contraintes spécifiques. Par exemple : « Réponds uniquement en HTML structuré avec des balises H2, H3 et des listes. »
Panneau Settings
- Always Output Data : force une sortie même en cas de réponse vide.
- Execute Once : exécute uniquement le premier item en entrée. Pratique pour les tests sans boucler sur tous les items.
- Retry On Fail : relance automatiquement le nœud en cas d’échec, avec un nombre de tentatives et un délai configurables.
- On Error : définit le comportement en cas d’erreur (arrêter le workflow, continuer, ou prendre une branche alternative).
Tester avec le Chat Trigger
Le Chat Trigger est un nœud déclencheur intégré à N8N qui permet de tester vos workflows IA directement depuis l’interface. Connectez-le au Basic LLM Chain, puis cliquez sur Chat dans la barre d’outils pour ouvrir la fenêtre de conversation.
Posez une question simple pour valider le fonctionnement : « Combien font 5 x 2 ? » Le modèle retourne une réponse textuelle. Vous voyez dans l’output du nœud le résultat généré. Si la réponse est « 5 x 2 = 10 », votre chaîne fonctionne correctement.
Forcer un format de sortie structuré
Par défaut, le LLM Chain retourne du texte libre. Mais pour exploiter la réponse dans la suite de votre workflow (calculs, conditions, insertions en base), vous avez besoin de données structurées. C’est le rôle de l’option Require Specific Output Format.
Activer l’Output Parser
Cochez Require Specific Output Format dans les paramètres du nœud. Un nouveau connecteur apparaît : Output Parser. Trois types de parsers sont disponibles :
- Structured Output Parser : définit un schéma JSON attendu en sortie. Le plus courant et le plus utile.
- Auto-fixing Output Parser : vérifie et corrige automatiquement le format de sortie si le LLM dévie.
- Item List Output Parser : génère plusieurs items en sortie pour itérer dessus dans les nœuds suivants.
Exemple concret : obtenir un nombre
Reprenons la question « Combien font 5 x 2 ? ». Sans Output Parser, la réponse est une phrase : « 5 x 2 = 10 ». Avec un Structured Output Parser, vous définissez le schéma suivant :
- Clé : resultat
- Type : number
Le modèle retourne alors un JSON : {"resultat": 10}. La valeur 10 est de type number, directement exploitable pour des calculs ou des conditions dans la suite du workflow. Si le format n’est pas respecté, le nœud génère une erreur, ce qui garantit l’intégrité des données en sortie.
Cas d’usage du Basic LLM Chain
- Génération de contenu : créez des descriptions produits, des résumés d’articles, des emails personnalisés à partir de données structurées.
- Classification et analyse : catégorisez des tickets support, analysez le sentiment de commentaires, extrayez des entités nommées.
- Transformation de données : convertissez du texte brut en JSON structuré, reformatez des données pour les adapter à une API.
- Chatbot simple : répondez automatiquement à des questions utilisateurs via le Chat Trigger ou un webhook Telegram/Slack.
- Traduction et reformulation : traduisez du contenu ou adaptez le ton d’un texte selon le contexte.

Comment forcer le nœud Basic LLM Chain à retourner un nombre au lieu d'une phrase ?
Conclusion
Le nœud Basic LLM Chain est la porte d’entrée vers l’intégration de l’intelligence artificielle dans vos workflows N8N. En maîtrisant la configuration des credentials OpenAI ou OpenRouter, les paramètres du modèle IA et les Output Parsers, vous disposez des fondations pour automatiser des tâches de génération, d’analyse et de transformation de contenu.
Le point clé à retenir : utilisez les Output Parsers pour garantir des sorties structurées et exploitables dans la suite de vos automatisations. Pour aller plus loin, explorez nos autres ressources N8N ou contactez notre équipe pour concevoir des workflows IA adaptés à vos besoins métier.
OpenAI donne accès uniquement aux modèles GPT (GPT-3.5, GPT-4, GPT-4o) avec une clé API dédiée. OpenRouter fonctionne comme une passerelle universelle : une seule clé API pour accéder à tous les modèles du marché (GPT, Claude, Mistral, Llama, Gemini). OpenRouter simplifie la gestion si vous souhaitez tester ou utiliser plusieurs modèles IA.
Créez un compte sur platform.openai.com, ajoutez un moyen de paiement, puis accédez à la section ‘API Keys’ dans le menu latéral. Cliquez sur ‘Create new secret key’ et copiez la clé générée. Cette clé sera à coller dans le champ ‘API Key’ lors de la création du credential OpenAI dans N8N.
La Temperature contrôle la créativité des réponses générées. Une valeur basse (proche de 0) produit des réponses prévisibles et factuelles, idéales pour la classification ou l’extraction de données. Une valeur haute (proche de 1) libère l’imagination du modèle, adaptée à la génération créative de contenu comme la rédaction d’articles ou de scénarios.
Activez l’option ‘Require Specific Output Format’ dans les paramètres du nœud, puis ajoutez un ‘Structured Output Parser’. Définissez le schéma JSON attendu avec les clés et leurs types (string, number, boolean). Le modèle retournera alors un JSON conforme à votre schéma, directement exploitable dans les nœuds suivants du workflow.
Le Basic LLM Chain exécute une tâche simple et directe : il reçoit une entrée, l’envoie au modèle IA et retourne la réponse. Il n’a pas de mémoire de conversation ni de capacité à appeler d’autres outils. Un Agent IA est plus complexe : il peut mémoriser le contexte, utiliser des outils externes (recherche web, bases de données) et prendre des décisions autonomes pour accomplir des tâches multi-étapes.
Le coût dépend du modèle utilisé et du nombre de tokens traités. GPT-3.5 Turbo est le plus économique (environ 0,002$ pour 1000 tokens). GPT-4 est plus performant mais plus coûteux (environ 0,03$ pour 1000 tokens en entrée). OpenRouter affiche des tarifs similaires avec une légère commission. Pour des tests, commencez avec GPT-3.5 Turbo qui offre un excellent rapport qualité-prix.
