Comment utiliser l'agent IA dans n8n pour automatiser vos workflows
Chapitres
Résumé
Le noeud AI Agent de n8n permet de créer des agents d'intelligence artificielle capables de raisonner, d'utiliser des outils et de répondre à des questions complexes. Ce tutoriel détaille la configuration du noeud, le choix du modèle LLM, l'ajout d'outils et de mémoire pour construire un agent fonctionnel.
Qu'est-ce qu'un agent IA dans n8n ?
Un agent IA est un noeud qui reçoit une question en entrée, la transmet à un modèle de langage (OpenAI, Claude, Mistral), et peut utiliser des outils pour enrichir sa réponse. Contrairement au noeud LLM Chain qui exécute un simple aller-retour question-réponse, l'agent peut décider d'appeler des outils (recherche web, lecture de base de données, appels API) avant de formuler sa réponse finale. C'est le noeud central pour construire des chatbots et assistants intelligents dans n8n.
Configuration du modèle LLM
L'agent nécessite un sous-noeud LLM connecté. n8n supporte OpenAI (GPT-4, GPT-3.5), Anthropic (Claude), Mistral, Ollama (modèles locaux) et d'autres providers. Le choix du modèle impacte la qualité des réponses, la vitesse et le coût. GPT-4 offre les meilleures performances pour les tâches complexes. Claude excelle sur les textes longs. Les modèles locaux via Ollama éliminent les coûts API mais nécessitent un serveur puissant.
Ajouter des outils à l'agent
Les outils sont des sous-noeuds que l'agent peut invoquer pour accomplir des actions. Exemples : un outil Calculator pour les calculs mathématiques, un outil SerpAPI pour les recherches web, un outil Code pour exécuter du JavaScript, ou un outil Workflow pour appeler un autre workflow n8n. L'agent décide seul quand utiliser quel outil en fonction de la question posée.
Mémoire conversationnelle
Sans mémoire, l'agent traite chaque message indépendamment. Le sous-noeud Window Buffer Memory conserve les N derniers échanges de la conversation. Pour une mémoire persistante entre sessions, utiliser le sous-noeud Postgres Chat Memory ou Redis Chat Memory. La mémoire permet à l'agent de se souvenir du contexte et de maintenir une conversation cohérente.
Architecture d'un agent IA
Cliquez sur un composant pour voir son rôle dans l'agent.
Sélectionnez un composant pour voir ses détails
Flux de données
Le Chat Trigger envoie le message à l'Agent. L'Agent utilise le LLM pour raisonner, appelle les outils si nécessaire, consulte la mémoire pour le contexte, et retourne la réponse.
Contenu détaillé
00:00Introduction
Présentation du noeud AI Agent et de ses capacités : raisonnement, outils et mémoire conversationnelle.
01:00Créer un agent basique
Ajouter un noeud AI Agent dans un workflow. Connecter un Chat Trigger comme entrée et un modèle LLM comme cerveau.
03:00Choisir le modèle LLM
Comparaison des providers : OpenAI, Anthropic Claude, Mistral, Ollama. Impact sur les performances, la vitesse et le coût.
05:30Configurer le System Prompt
Le System Prompt définit le comportement et la personnalité de l'agent. Rédiger des instructions claires pour orienter les réponses.
07:30Ajouter des outils
Connecter des outils : Calculator, SerpAPI, Code, Workflow Tool. L'agent décide quand utiliser chaque outil en fonction de la question.
10:00Mémoire conversationnelle
Window Buffer Memory pour conserver les derniers échanges. Postgres ou Redis Chat Memory pour la persistance entre sessions.
13:00Tester l'agent
Envoyer des questions via le Chat Trigger, vérifier les appels d'outils et la qualité des réponses. Ajuster le System Prompt si nécessaire.
16:00Agent vs LLM Chain
Différences entre les deux noeuds : l'agent raisonne et utilise des outils, le LLM Chain fait un simple aller-retour question-réponse.
18:30Cas d'usage et bonnes pratiques
Chatbot support client, assistant interne, analyse de documents. Limiter les outils au strict nécessaire pour réduire les coûts et les erreurs.
Questions fréquentes
Transcription complète
Pour aller plus loin
Ce tutoriel vous a été utile ? Contactez-moi pour un accompagnement personnalisé sur n8n.