Accueil » 📂N8N » 📂Noeuds » 🇫🇷 Basic LLM Chain
Valentin Charrier présentant le guide complet du Noeud Basic LLM Chain N8N

Intégrer l’intelligence artificielle dans vos workflows N8N ouvre un champ d’automatisations puissant : génération de contenu, analyse de données, chatbots intelligents. Le nœud Basic LLM Chain est la brique fondamentale pour connecter N8N à des modèles de langage comme GPT, Claude ou Mistral. Ce guide vous accompagne pas à pas dans la configuration des credentials OpenAI et OpenRouter, le paramétrage du nœud LLM Chain, et la maîtrise des options avancées pour obtenir des réponses structurées et exploitables dans vos automatisations.

Qu’est-ce qu’un LLM Chain ?

Un LLM Chain (Large Language Model Chain) est un nœud N8N qui permet de communiquer avec un modèle d’intelligence artificielle générative. Concrètement, il reçoit une entrée (une question, un texte, une instruction), l’envoie à un LLM via une API, et retourne la réponse générée. C’est l’interface entre vos workflows d’automatisation et la puissance des modèles de langage.

Le Basic LLM Chain se distingue des agents IA plus complexes : il exécute une tâche simple et directe, sans mémoire de conversation ni capacité à appeler d’autres outils. Cette simplicité en fait le point d’entrée idéal pour découvrir l’intégration IA dans N8N avant de passer à des architectures plus élaborées.

OpenAI vs OpenRouter : quelle solution choisir ?

Pour utiliser le nœud LLM Chain, vous devez connecter N8N à un fournisseur de modèles IA via une clé API. Deux options principales s’offrent à vous : OpenAI directement, ou OpenRouter comme passerelle universelle.

OpenAI : accès direct aux modèles GPT

OpenAI est le créateur de ChatGPT et des modèles GPT-3.5, GPT-4 et GPT-4o. En créant un compte sur platform.openai.com, vous obtenez une clé API qui donne accès exclusivement aux modèles OpenAI. Cette solution convient si vous souhaitez utiliser uniquement les modèles GPT.

OpenRouter : une passerelle multi-modèles

OpenRouter fonctionne comme un agrégateur : un seul compte, une seule clé API, et l’accès à tous les modèles du marché. GPT-4, Claude, Mistral, Llama, Gemini : vous choisissez le modèle adapté à chaque tâche sans multiplier les comptes et les facturations. Pour des tests comparatifs ou une utilisation multi-modèles, OpenRouter simplifie considérablement la gestion.

Récupérer les clés API

Clé API OpenAI

La clé ressemble à une longue chaîne de caractères du type sk-proj-xxxxxxxxxxxxx. Conservez-la précieusement : elle ne sera plus affichée après fermeture de la fenêtre.

Clé API OpenRouter

Configurer les credentials dans N8N

Une fois vos clés API en main, vous pouvez créer les credentials dans N8N. Cette étape permet à vos workflows d’authentifier les appels vers les modèles IA.

Étape 1 : Accéder aux credentials

Depuis la page d’accueil de N8N, cliquez sur Credentials dans le menu latéral. Cliquez sur la flèche à côté de « Create » et sélectionnez Create Credential.

Étape 2 : Créer le credential OpenAI ou OpenRouter

Recherchez « OpenAI » ou « OpenRouter » dans la liste. Sélectionnez le service correspondant et cliquez sur Continue. Un seul champ est requis : API Key. Collez la clé que vous avez récupérée précédemment.

Étape 3 : Sauvegarder

Cliquez sur Save. N8N valide automatiquement la connexion. Si tout est correct, votre credential est prêt à être utilisé dans vos workflows. Conseil : renommez vos credentials de manière explicite (exemple : « OpenRouter – Production ») pour les identifier facilement si vous en gérez plusieurs.

Ajouter le nœud Basic LLM Chain

Créez un nouveau workflow dans N8N. Cliquez sur le bouton + et recherchez « LLM Chain ». Sélectionnez Basic LLM Chain. Le nœud s’insère avec une connexion « Chat » prévue pour recevoir un déclencheur conversationnel.

Connectez ensuite votre modèle IA au nœud LLM Chain. Si vous utilisez OpenRouter, ajoutez un sous-nœud OpenRouter Chat Model et sélectionnez le credential créé précédemment. Vous pouvez alors choisir parmi tous les modèles disponibles : GPT-3.5 Turbo pour des tests rapides et économiques, GPT-4 pour des tâches complexes, ou Claude et Mistral selon vos préférences.

Comprendre les paramètres du modèle IA

Chaque modèle IA connecté au LLM Chain propose des réglages avancés qui influencent la qualité et le comportement des réponses générées. Voici les principaux paramètres à maîtriser.

Temperature : créativité vs précision

La température contrôle le degré de créativité de la réponse. Une valeur basse (proche de 0) produit des réponses prévisibles et factuelles, idéales pour des tâches de classification ou d’extraction de données. Une valeur haute (proche de 1) libère l’imagination du modèle, adaptée à la génération créative de contenu.

Maximum Number of Tokens

Ce paramètre définit la longueur maximale de la réponse. Un token correspond approximativement à 4-5 caractères. Ajustez cette valeur selon vos besoins : une réponse courte pour une classification, plusieurs milliers de tokens pour un article complet.

Frequency Penalty et Presence Penalty

Top P (Nucleus Sampling)

Le Top P limite les choix de tokens aux plus probables jusqu’à un certain seuil cumulé. À ne pas combiner avec une température élevée : utilisez l’un ou l’autre pour éviter des comportements imprévisibles.

Timeout et Max Retries

Configurer le nœud Basic LLM Chain

Le nœud Basic LLM Chain propose deux panneaux de configuration : Parameters pour les entrées/sorties, et Settings pour le comportement d’exécution.

Panneau Parameters

Le réglage principal est Source for Prompt User Message. Deux options s’offrent à vous :

Vous pouvez également ajouter un System Prompt via « Add Prompt ». Ce prompt système donne des instructions globales au modèle : format de réponse attendu, ton, contraintes spécifiques. Par exemple : « Réponds uniquement en HTML structuré avec des balises H2, H3 et des listes. »

Panneau Settings

Tester avec le Chat Trigger

Le Chat Trigger est un nœud déclencheur intégré à N8N qui permet de tester vos workflows IA directement depuis l’interface. Connectez-le au Basic LLM Chain, puis cliquez sur Chat dans la barre d’outils pour ouvrir la fenêtre de conversation.

Posez une question simple pour valider le fonctionnement : « Combien font 5 x 2 ? » Le modèle retourne une réponse textuelle. Vous voyez dans l’output du nœud le résultat généré. Si la réponse est « 5 x 2 = 10 », votre chaîne fonctionne correctement.

Forcer un format de sortie structuré

Par défaut, le LLM Chain retourne du texte libre. Mais pour exploiter la réponse dans la suite de votre workflow (calculs, conditions, insertions en base), vous avez besoin de données structurées. C’est le rôle de l’option Require Specific Output Format.

Activer l’Output Parser

Cochez Require Specific Output Format dans les paramètres du nœud. Un nouveau connecteur apparaît : Output Parser. Trois types de parsers sont disponibles :

Exemple concret : obtenir un nombre

Reprenons la question « Combien font 5 x 2 ? ». Sans Output Parser, la réponse est une phrase : « 5 x 2 = 10 ». Avec un Structured Output Parser, vous définissez le schéma suivant :

Le modèle retourne alors un JSON : {"resultat": 10}. La valeur 10 est de type number, directement exploitable pour des calculs ou des conditions dans la suite du workflow. Si le format n’est pas respecté, le nœud génère une erreur, ce qui garantit l’intégrité des données en sortie.

Cas d’usage du Basic LLM Chain

Quotien Intellectuel pour illustrer l'apprentissage du noeud N8N

Comment forcer le nœud Basic LLM Chain à retourner un nombre au lieu d'une phrase ?

Conclusion

Le nœud Basic LLM Chain est la porte d’entrée vers l’intégration de l’intelligence artificielle dans vos workflows N8N. En maîtrisant la configuration des credentials OpenAI ou OpenRouter, les paramètres du modèle IA et les Output Parsers, vous disposez des fondations pour automatiser des tâches de génération, d’analyse et de transformation de contenu.

Le point clé à retenir : utilisez les Output Parsers pour garantir des sorties structurées et exploitables dans la suite de vos automatisations. Pour aller plus loin, explorez nos autres ressources N8N ou contactez notre équipe pour concevoir des workflows IA adaptés à vos besoins métier.

Quelle est la différence entre OpenAI et OpenRouter pour N8N ?

OpenAI donne accès uniquement aux modèles GPT (GPT-3.5, GPT-4, GPT-4o) avec une clé API dédiée. OpenRouter fonctionne comme une passerelle universelle : une seule clé API pour accéder à tous les modèles du marché (GPT, Claude, Mistral, Llama, Gemini). OpenRouter simplifie la gestion si vous souhaitez tester ou utiliser plusieurs modèles IA.

Comment obtenir une clé API OpenAI pour N8N ?

Créez un compte sur platform.openai.com, ajoutez un moyen de paiement, puis accédez à la section ‘API Keys’ dans le menu latéral. Cliquez sur ‘Create new secret key’ et copiez la clé générée. Cette clé sera à coller dans le champ ‘API Key’ lors de la création du credential OpenAI dans N8N.

À quoi sert le paramètre Temperature dans le LLM Chain ?

La Temperature contrôle la créativité des réponses générées. Une valeur basse (proche de 0) produit des réponses prévisibles et factuelles, idéales pour la classification ou l’extraction de données. Une valeur haute (proche de 1) libère l’imagination du modèle, adaptée à la génération créative de contenu comme la rédaction d’articles ou de scénarios.

Comment forcer le LLM Chain à retourner du JSON structuré ?

Activez l’option ‘Require Specific Output Format’ dans les paramètres du nœud, puis ajoutez un ‘Structured Output Parser’. Définissez le schéma JSON attendu avec les clés et leurs types (string, number, boolean). Le modèle retournera alors un JSON conforme à votre schéma, directement exploitable dans les nœuds suivants du workflow.

Quelle est la différence entre le Basic LLM Chain et un Agent IA dans N8N ?

Le Basic LLM Chain exécute une tâche simple et directe : il reçoit une entrée, l’envoie au modèle IA et retourne la réponse. Il n’a pas de mémoire de conversation ni de capacité à appeler d’autres outils. Un Agent IA est plus complexe : il peut mémoriser le contexte, utiliser des outils externes (recherche web, bases de données) et prendre des décisions autonomes pour accomplir des tâches multi-étapes.

Combien coûte l’utilisation de l’API OpenAI avec N8N ?

Le coût dépend du modèle utilisé et du nombre de tokens traités. GPT-3.5 Turbo est le plus économique (environ 0,002$ pour 1000 tokens). GPT-4 est plus performant mais plus coûteux (environ 0,03$ pour 1000 tokens en entrée). OpenRouter affiche des tarifs similaires avec une légère commission. Pour des tests, commencez avec GPT-3.5 Turbo qui offre un excellent rapport qualité-prix.


Vous recherchez d’autres contenus ?