Comment utiliser le noeud LLM Chain dans n8n
Chapitres
Résumé
Le noeud LLM Chain de n8n permet de traiter des demandes en langage naturel en les envoyant à un modèle de langage (OpenAI, Mistral, Claude). Ce tutoriel explique son fonctionnement, sa configuration et ses différences avec le noeud AI Agent pour choisir le bon noeud selon le cas d'usage.
Fonctionnement du LLM Chain
Le LLM Chain fonctionne en mode question-réponse simple : il reçoit un texte en entrée, le transmet au modèle LLM sélectionné, et retourne la réponse. Pas de raisonnement multi-étapes, pas d'appel d'outils. C'est le noeud le plus simple pour intégrer l'IA dans un workflow n8n. Idéal pour la classification de texte, la génération de résumés, la traduction ou l'extraction d'informations structurées.
Configuration et prompt engineering
Le noeud accepte un System Prompt (les instructions de comportement) et un User Prompt (la question ou le texte à traiter). Le System Prompt reste constant entre les exécutions, tandis que le User Prompt change à chaque item traité. On peut injecter des variables du workflow dans les prompts avec la syntaxe {{ $json.champ }}. La température contrôle la créativité des réponses : 0 pour des réponses déterministes, 1 pour plus de variété.
Cas d'usage typiques
Classification de documents : déterminer si un email est une facture, une relance ou un spam. Extraction de données : extraire nom, date, montant d'un texte libre. Génération de contenu : rédiger des descriptions produits à partir de caractéristiques. Traduction : traduire des textes entre langues. Résumé : condenser un document long en quelques phrases clés.
LLM Chain vs AI Agent : quand utiliser lequel ?
Utiliser le LLM Chain quand la tâche est simple et ne nécessite pas d'outils : classification, extraction, traduction, résumé. Utiliser l'AI Agent quand la tâche nécessite du raisonnement, des recherches externes ou l'utilisation d'outils. Le LLM Chain est plus rapide, moins coûteux et plus prévisible. L'Agent est plus puissant mais consomme plus de tokens.
Architecture d'un agent IA
Cliquez sur un composant pour voir son rôle dans l'agent.
Sélectionnez un composant pour voir ses détails
Flux de données
Le Chat Trigger envoie le message à l'Agent. L'Agent utilise le LLM pour raisonner, appelle les outils si nécessaire, consulte la mémoire pour le contexte, et retourne la réponse.
Contenu détaillé
00:00Introduction
Présentation du noeud LLM Chain : traiter des demandes en langage naturel avec un modèle IA dans n8n.
00:45Ajouter un LLM Chain au workflow
Créer un workflow avec un trigger et un noeud Basic LLM Chain. Connecter un modèle LLM (OpenAI, Mistral, Claude).
02:30Configurer le System Prompt
Définir les instructions de comportement du modèle. Le System Prompt reste constant, le User Prompt change à chaque item.
04:30Injecter des variables dans les prompts
Utiliser la syntaxe {{ $json.champ }} pour injecter des données du workflow dans les prompts. Exemple : classer des emails dynamiquement.
06:30Paramètres avancés : température et tokens
Température à 0 pour des réponses déterministes, à 1 pour plus de créativité. Max Tokens pour limiter la longueur de la réponse.
08:30Cas d'usage : classification de texte
Exemple pratique : classer des emails en catégories (facture, relance, spam) avec un prompt structuré.
10:30Cas d'usage : extraction de données
Extraire des informations structurées (nom, date, montant) d'un texte libre. Retourner le résultat en JSON.
12:30LLM Chain vs AI Agent
Comparaison des deux noeuds : simplicité vs puissance, coût, vitesse et cas d'usage appropriés pour chacun.
Questions fréquentes
Transcription complète
Pour aller plus loin
Ce tutoriel vous a été utile ? Contactez-moi pour un accompagnement personnalisé sur n8n.