项目简介
本项目是一个基于 Model Context Protocol (MCP) 的服务器实现,专门用于通过大型语言模型(LLM)与 n8n 工作流进行交互。它允许 LLM 客户端(如 Cursor IDE)调用工具来创建、编辑、删除 n8n 工作流及其内部节点和连接,从而通过自然语言提示自动化工作流的构建过程。
主要功能点
- 工作流管理: 创建、获取详细信息、列出所有现有工作流,并能处理工作流文件。
- 节点管理: 发现 n8n 中可用的节点类型,向工作流添加新节点,编辑或删除现有节点。
- 连接管理: 在工作流中的节点之间建立连接,或移除连接。
- AI 节点连接: 提供专门工具用于连接 LangChain 等 AI 相关节点(如语言模型、工具、记忆节点)到 AI Agent 节点。
安装步骤
本项目推荐使用 'npx' 命令直接从 npm 仓库运行,无需全局安装。你需要在支持 MCP 协议的客户端(如 Cursor IDE v0.48+)中配置服务器。
-
安装前置条件: 确保你已安装 Node.js (v14 或更高版本) 和 npm。
-
创建配置目录: 在你的项目根目录下创建 '.cursor' 目录(如果不存在)。
mkdir -p .cursor -
创建或更新 MCP 配置文件: 在 '.cursor' 目录中创建或编辑 'mcp.json' 文件。使用以下配置示例:
配置信息为 JSON 格式,你需要将其添加到你的 '.cursor/mcp.json' 文件中:
{ "mcpServers": { "n8n-workflow-builder": { // MCP 服务器的名称,客户端会使用这个名称引用它 "command": "npx", // 启动服务器的命令 "args": [ // 传递给命令的参数数组 "-y", // npx 参数: 自动确认安装包 "n8n-workflow-builder-mcp" // 要执行的 npm 包名称 ], "env": { // 传递给服务器进程的环境变量 "N8N_API_URL": "http://localhost:5678", // [可选] 你的 n8n 实例 API 地址 "N8N_API_KEY": "your-n8n-api-key-here" // [可选] 你的 n8n API Key } } } }请将 '"your-n8n-api-key-here"' 替换为你实际的 n8n API Key。如果你不使用 n8n 的 API 集成功能(例如只通过文件系统操作工作流),则 N8N_API_URL 和 N8N_API_KEY 是可选的。
-
重启客户端: 保存 'mcp.json' 文件后,重启你的 MCP 客户端(如 Cursor IDE)以使配置生效。
基本使用方法
配置完成后,MCP 服务器将在后台运行并等待客户端连接。在 MCP 客户端(例如 Cursor 的聊天界面)中:
- 通过自然语言提示 AI 调用 MCP 服务器提供的工具。
- 例如,你可以提示 AI "创建一个名为 '我的第一个工作流' 的 n8n 工作流"。AI 将识别并调用 'create_workflow' 工具。
- 你可以继续提示 AI "向 '我的第一个工作流' 添加一个 HTTP Request 节点,位置在 (100, 200)" 或 "连接节点 'node1' 的 main 输出到节点 'node2' 的 main 输入"。
- 使用 'list_available_nodes' 工具来发现 n8n 中可用的节点类型及其描述,这将帮助你更准确地指导 AI 构建工作流。
- 服务器将在你的项目目录(具体位置由客户端调用 'create_workflow' 时传递的 'workspace_dir' 参数决定,默认为 '.cursor/workflow_data')下创建或修改 '.json' 文件,这些文件代表了你的 n8n 工作流。
- 你可以将生成的 '.json' 文件导入到 n8n UI 中进行可视化编辑和运行。
信息
分类
AI与计算