项目简介

本项目是一个基于 Model Context Protocol (MCP) 的服务器实现,专门用于通过大型语言模型(LLM)与 n8n 工作流进行交互。它允许 LLM 客户端(如 Cursor IDE)调用工具来创建、编辑、删除 n8n 工作流及其内部节点和连接,从而通过自然语言提示自动化工作流的构建过程。

主要功能点

  • 工作流管理: 创建、获取详细信息、列出所有现有工作流,并能处理工作流文件。
  • 节点管理: 发现 n8n 中可用的节点类型,向工作流添加新节点,编辑或删除现有节点。
  • 连接管理: 在工作流中的节点之间建立连接,或移除连接。
  • AI 节点连接: 提供专门工具用于连接 LangChain 等 AI 相关节点(如语言模型、工具、记忆节点)到 AI Agent 节点。

安装步骤

本项目推荐使用 'npx' 命令直接从 npm 仓库运行,无需全局安装。你需要在支持 MCP 协议的客户端(如 Cursor IDE v0.48+)中配置服务器。

  1. 安装前置条件: 确保你已安装 Node.js (v14 或更高版本) 和 npm。

  2. 创建配置目录: 在你的项目根目录下创建 '.cursor' 目录(如果不存在)。

    mkdir -p .cursor
  3. 创建或更新 MCP 配置文件: 在 '.cursor' 目录中创建或编辑 'mcp.json' 文件。使用以下配置示例:

    配置信息为 JSON 格式,你需要将其添加到你的 '.cursor/mcp.json' 文件中:

    {
      "mcpServers": {
        "n8n-workflow-builder": { // MCP 服务器的名称,客户端会使用这个名称引用它
          "command": "npx",       // 启动服务器的命令
          "args": [               // 传递给命令的参数数组
            "-y",                 // npx 参数: 自动确认安装包
            "n8n-workflow-builder-mcp" // 要执行的 npm 包名称
          ],
          "env": {                // 传递给服务器进程的环境变量
            "N8N_API_URL": "http://localhost:5678", // [可选] 你的 n8n 实例 API 地址
            "N8N_API_KEY": "your-n8n-api-key-here" // [可选] 你的 n8n API Key
          }
        }
      }
    }

    请将 '"your-n8n-api-key-here"' 替换为你实际的 n8n API Key。如果你不使用 n8n 的 API 集成功能(例如只通过文件系统操作工作流),则 N8N_API_URL 和 N8N_API_KEY 是可选的。

  4. 重启客户端: 保存 'mcp.json' 文件后,重启你的 MCP 客户端(如 Cursor IDE)以使配置生效。

基本使用方法

配置完成后,MCP 服务器将在后台运行并等待客户端连接。在 MCP 客户端(例如 Cursor 的聊天界面)中:

  1. 通过自然语言提示 AI 调用 MCP 服务器提供的工具。
  2. 例如,你可以提示 AI "创建一个名为 '我的第一个工作流' 的 n8n 工作流"。AI 将识别并调用 'create_workflow' 工具。
  3. 你可以继续提示 AI "向 '我的第一个工作流' 添加一个 HTTP Request 节点,位置在 (100, 200)" 或 "连接节点 'node1' 的 main 输出到节点 'node2' 的 main 输入"。
  4. 使用 'list_available_nodes' 工具来发现 n8n 中可用的节点类型及其描述,这将帮助你更准确地指导 AI 构建工作流。
  5. 服务器将在你的项目目录(具体位置由客户端调用 'create_workflow' 时传递的 'workspace_dir' 参数决定,默认为 '.cursor/workflow_data')下创建或修改 '.json' 文件,这些文件代表了你的 n8n 工作流。
  6. 你可以将生成的 '.json' 文件导入到 n8n UI 中进行可视化编辑和运行。

信息

分类

AI与计算