
Le nœud AI Agent est le cœur de l’intelligence artificielle dans N8N. Il permet de créer des automatisations qui comprennent, raisonnent et agissent de manière autonome. Contrairement à un simple appel à un LLM, l’agent IA peut utiliser des outils externes, interroger vos bases de données et maintenir une conversation cohérente grâce à sa mémoire. C’est la brique essentielle pour transformer vos workflows en assistants intelligents capables de s’adapter à chaque situation.
Qu’est-ce qu’un agent IA ?
Un agent IA est un système autonome capable de percevoir son environnement, de prendre des décisions et d’exécuter des actions pour atteindre un objectif. Dans N8N, le nœud AI Agent orchestre cette intelligence : il reçoit une demande utilisateur, la contextualise avec sa mémoire, consulte un modèle de langage (LLM) pour comprendre l’intention, et peut déclencher des outils pour accomplir des tâches concrètes.
La puissance de l’agent réside dans sa capacité à raisonner avant d’agir. Face à une question complexe, il peut décider d’utiliser un outil de recherche web, interroger une base de données vectorielle, ou simplement répondre avec ses connaissances intégrées. Cette flexibilité en fait un nœud central pour construire des chatbots intelligents, des assistants métier ou des systèmes de support automatisé.
Architecture du nœud AI Agent
Le nœud AI Agent fonctionne avec plusieurs composants connectés qui collaborent pour traiter chaque requête. Comprendre cette architecture vous permet de configurer des agents performants et adaptés à vos cas d’usage.
Le modèle IA (LLM)
Le LLM est le cerveau de votre agent. Il analyse les requêtes, comprend les intentions et génère les réponses. N8N supporte plusieurs fournisseurs : OpenAI (GPT-4, GPT-3.5), Anthropic (Claude), Open Router pour accéder à des dizaines de modèles, ou encore des modèles open source via Ollama. Le choix du modèle impacte directement la qualité des réponses et la capacité à utiliser les outils correctement.
Point important : les LLM ont une date de coupure d’entraînement. Un modèle entraîné jusqu’en 2024 ne connaît pas les événements de 2025. C’est pourquoi les outils de recherche web deviennent essentiels pour obtenir des informations à jour.
La mémoire
La mémoire permet à l’agent de maintenir le contexte d’une conversation. Sans mémoire, chaque message serait traité isolément, sans lien avec les échanges précédents. N8N propose plusieurs types de mémoire : Window Buffer Memory (conserve les N derniers messages), Token Buffer Memory (limite par nombre de tokens), ou des mémoires persistantes stockées en base de données.
Le flux est simple : la question utilisateur arrive, l’agent la stocke en mémoire avec le contexte existant, puis transmet l’ensemble au LLM pour générer une réponse cohérente.
Le prompt système
Le prompt système définit le comportement et la personnalité de votre agent. C’est ici que vous précisez son rôle, ses contraintes et ses priorités. Par exemple : « Tu es un assistant spécialisé en automatisation N8N. Tu réponds uniquement en français. Tu utilises la base de données vectorielle avant de faire appel à tes connaissances générales. »
Un prompt système bien rédigé améliore considérablement la pertinence des réponses et guide l’agent vers les bons outils au bon moment.
Créer un chat avec l’agent IA
La configuration de base d’un agent IA conversationnel nécessite quatre éléments : un trigger, l’agent lui-même, un modèle LLM et une mémoire.
Étape 1 : Ajouter le Chat Trigger
Le nœud Chat Trigger crée une interface de conversation directement dans N8N. Il capture les messages utilisateur et les transmet à l’agent. C’est le point d’entrée idéal pour tester vos agents avant de les exposer via webhook ou interface externe.
Étape 2 : Configurer l’agent IA
Ajoutez le nœud AI Agent et connectez-le au Chat Trigger. L’agent dispose de plusieurs entrées : une pour le modèle LLM, une pour la mémoire, et une pour les outils (optionnelle). Configurez le prompt système selon votre cas d’usage.
Étape 3 : Connecter le LLM et la mémoire
Sélectionnez votre modèle IA (OpenAI, Open Router, Anthropic, etc.) et connectez-le à l’entrée correspondante de l’agent. Ajoutez ensuite un nœud de mémoire (Window Buffer Memory est un bon choix pour débuter) pour maintenir le contexte conversationnel.
Étape 4 : Tester la conversation
Ouvrez le chat intégré et posez une question. L’agent reçoit le message, le contextualise avec la mémoire, interroge le LLM et renvoie la réponse. Vous pouvez observer le flux d’exécution pour comprendre comment chaque composant interagit.
Limitation importante : si vous demandez « Qui est le président des États-Unis ? » à un modèle entraîné jusqu’en 2024, il répondra avec des informations obsolètes. C’est là qu’interviennent les tools.
Décupler la puissance avec les Tools
Les tools (outils) sont des capacités supplémentaires que vous donnez à votre agent. Ils lui permettent d’exécuter des actions concrètes : rechercher sur le web, appeler des APIs, exécuter du code, ou déclencher d’autres workflows N8N. L’agent décide automatiquement quel outil utiliser en fonction de la demande.
Code Tool : exécuter du code personnalisé
Le Code Tool permet à l’agent d’exécuter du JavaScript personnalisé. Vous définissez un nom (sans espaces, exemple : « my_color_selector »), une description expliquant quand utiliser cet outil, et le code à exécuter.
La description est cruciale : c’est elle qui permet au LLM de comprendre quand déclencher l’outil. Soyez précis : « Génère une couleur aléatoire parmi une liste prédéfinie, en excluant les couleurs spécifiées par l’utilisateur. »
Exemple concret : l’utilisateur demande « Génère-moi une couleur qui n’est ni verte ni bleue. » L’agent identifie que le Code Tool est pertinent, l’exécute avec les paramètres fournis, et retourne « La couleur générée est blanc. »
Call N8N Workflow Tool : appeler un autre workflow
Le Call N8N Workflow Tool permet à l’agent de déclencher un workflow externe. C’est la méthode la plus puissante pour étendre ses capacités : vous pouvez créer des workflows spécialisés (recherche web via Perplexity, envoi d’emails, création de tâches) et les rendre accessibles à l’agent.
Configuration : donnez un nom à l’outil (exemple : « Perplexity »), une description (« Faire des recherches sur le web pour obtenir des informations à jour »), et sélectionnez le workflow cible. Le workflow appelé doit commencer par un nœud « When Executed by Another Workflow » et accepter les paramètres définis (typiquement une variable « Query »).
Résultat : en demandant « Qui est le président des États-Unis ? », l’agent utilise maintenant Perplexity pour rechercher l’information en temps réel. Même avec un modèle ancien comme GPT-3.5, vous obtenez des réponses à jour grâce à la recherche web.
HTTP Request Tool : appeler des APIs externes
Le HTTP Request Tool donne à l’agent la capacité d’interroger des APIs directement. Configurez la méthode (GET, POST), l’URL, les paramètres et les headers. L’agent décidera seul quand appeler cette API en fonction des demandes utilisateur.
Exemple pratique : une API qui tire une carte au hasard dans un jeu de cartes. Description : « Tirer une carte au hasard d’un jeu de cartes standard. » URL : https://deckofcardsapi.com/api/deck/new/draw/?count=1. L’utilisateur demande « Tire une carte au hasard », l’agent appelle l’API et retourne « Vous avez tiré un As de Pique. »
L’option Optimize Response permet de filtrer la réponse API pour ne conserver que les données pertinentes, évitant de surcharger le contexte du LLM.
RAG : interroger une base de données vectorielle
Le RAG (Retrieval-Augmented Generation) permet à l’agent d’interroger vos propres données avant de répondre. Au lieu de s’appuyer uniquement sur les connaissances du LLM, l’agent recherche d’abord dans une base de données vectorielle contenant vos documents, puis utilise ces informations pour générer une réponse précise et contextualisée.
Créer une base de données vectorielle
La première étape consiste à vectoriser vos données. Un workflow dédié transforme vos documents texte en embeddings (représentations numériques) stockés dans une base vectorielle.
Les composants nécessaires sont les suivants. Un nœud pour charger vos données (Edit Fields, HTTP Request, ou lecture de fichier). Un Simple Vector Store pour définir la base de données (nommez-la explicitement, exemple : « Fusion Embeddings »). Un modèle d’embedding (Text-Embedding-3-Large d’OpenAI est un excellent choix). Un Default Data Loader pour formater les données. Un Recursive Character Text Splitter pour découper les textes longs en chunks (taille recommandée : 1000 caractères, overlap : 250).
Ce workflow s’exécute une fois pour indexer vos données. Vous pouvez le relancer pour mettre à jour la base avec de nouvelles informations.
Interroger la base avec l’agent IA
Dans votre workflow conversationnel, ajoutez le Simple Vector Store comme outil de l’agent. Connectez le même modèle d’embedding pour vectoriser les questions utilisateur et les comparer aux documents indexés.
Le prompt système joue un rôle clé : précisez que l’agent doit utiliser uniquement la base vectorielle et non ses connaissances générales. Exemple : « Tu es un assistant spécialisé. Tu réponds uniquement en utilisant les informations de la base Fusion Embeddings. Si l’information n’est pas dans la base, indique que tu ne sais pas. »
Test comparatif : sans base vectorielle, la question « Quel est le surnom du créateur de Fusion ? » obtient « Je ne sais pas. » Avec la base activée, la réponse devient « Le surnom du créateur de Fusion est Beboon. » L’agent a trouvé l’information dans vos données propriétaires.
Combiner RAG et Tools pour des actions concrètes
La vraie puissance apparaît quand vous combinez interrogation de base vectorielle et outils d’action. Par exemple : un agent qui interroge votre base de connaissances entreprise, puis envoie un email récapitulatif via un tool Gmail.
Scénario concret : l’utilisateur demande « J’aimerais recevoir un récapitulatif détaillé de votre entreprise. » L’agent interroge la base vectorielle pour collecter les informations, demande l’adresse email de l’utilisateur, puis utilise le tool Gmail pour envoyer un email structuré automatiquement généré.
Bonnes pratiques pour optimiser vos agents
- Choisissez le bon modèle : les modèles récents (GPT-4, Claude 3) comprennent mieux les outils et produisent des réponses plus cohérentes. Un modèle ancien peut fonctionner mais nécessitera des prompts plus précis.
- Rédigez des descriptions d’outils précises : le LLM décide quel outil utiliser en fonction de sa description. Une description vague mène à des choix inappropriés.
- Ajustez le prompt système : testez différentes formulations pour améliorer la cohérence des réponses. Précisez les contraintes, le ton et les priorités de l’agent.
- Dimensionnez la mémoire : trop de contexte ralentit les réponses et augmente les coûts. Trouvez l’équilibre entre historique conversationnel et performance.
- Testez avec différents modèles : chaque LLM a ses forces. Expérimentez pour trouver celui qui convient à votre cas d’usage.

Comment le nœud AI Agent de N8N peut-il obtenir des informations à jour malgré la date de coupure d'entraînement du LLM ?
Conclusion
Le nœud AI Agent transforme N8N en plateforme d’intelligence artificielle appliquée. En combinant un LLM, une mémoire contextuelle, des outils d’action et une base de données vectorielle, vous créez des assistants capables de comprendre, raisonner et agir de manière autonome. Les cas d’usage sont vastes : chatbots de support client, assistants métier, systèmes de recherche documentaire, automatisation d’emails personnalisés.
Les trois piliers à retenir sont le chat pour la conversation naturelle, les tools pour étendre les capacités au-delà du LLM, et le RAG pour ancrer les réponses dans vos données propriétaires. Expérimentez avec différents modèles et ajustez vos prompts pour obtenir des agents performants et fiables.
Découvrez nos autres ressources N8N pour approfondir vos compétences en automatisation IA, ou contactez notre équipe pour concevoir des agents intelligents adaptés à vos besoins métier.
Le nœud AI Agent est un composant central qui orchestre l’intelligence artificielle dans vos workflows. Il reçoit les demandes utilisateur, les contextualise avec sa mémoire, consulte un LLM pour comprendre l’intention, et peut déclencher des outils pour exécuter des actions concrètes comme rechercher sur le web ou envoyer des emails.
Les LLM ont une date de coupure d’entraînement : ils ne connaissent pas les événements postérieurs à cette date. Pour obtenir des informations à jour, ajoutez un tool de recherche web (comme Call N8N Workflow Tool connecté à Perplexity) qui permet à l’agent d’interroger Internet en temps réel.
L’agent s’appuie sur la description de chaque tool pour décider lequel utiliser. Le LLM analyse la demande utilisateur et la compare aux descriptions des outils disponibles. C’est pourquoi des descriptions précises et explicites sont essentielles pour un fonctionnement optimal.
RAG (Retrieval-Augmented Generation) permet à l’agent d’interroger vos propres données avant de répondre. Vos documents sont vectorisés et stockés dans une base. Quand l’utilisateur pose une question, l’agent recherche d’abord les informations pertinentes dans cette base, puis génère une réponse basée sur vos données propriétaires plutôt que sur les connaissances générales du LLM.
Les modèles récents comme GPT-4 ou Claude 3 offrent une meilleure compréhension des outils et des réponses plus cohérentes. Pour des usages simples ou des tests, GPT-3.5 reste fonctionnel mais nécessite des prompts plus précis. Expérimentez avec différents modèles via Open Router pour trouver le meilleur rapport qualité/coût pour votre cas d’usage.
Configurez le prompt système pour contraindre l’agent : ‘Tu réponds uniquement en utilisant les informations de la base vectorielle [nom]. Si l’information n’est pas dans la base, indique que tu ne sais pas.’ Activez ensuite le Simple Vector Store comme tool et connectez le modèle d’embedding approprié.
