使用说明
项目简介
'mcp-flowise' 是一个基于 Model Context Protocol (MCP) 的服务器实现,旨在连接 Flowise API 和 LLM 客户端。它允许大型语言模型 (LLM) 通过标准化的 MCP 协议调用和利用 Flowise 中创建的 Chatflows 和 Assistants,从而扩展 LLM 的能力边界。
主要功能点
- Flowise Chatflows 作为工具: 将 Flowise 中预先配置好的 Chatflows 动态或静态地注册为 MCP 工具,使得 LLM 可以通过调用这些工具来执行对话流程或任务。
- 两种运行模式:
- LowLevel Mode (动态工具模式): 自动发现并注册 Flowise API 中的所有 Chatflows 作为独立的工具。工具名称与 Chatflow 名称对应,方便直接调用。
- FastMCP Mode (静态工具模式): 提供 'list_chatflows' 和 'create_prediction' 两个通用工具。'list_chatflows' 用于列出可用的 Chatflows,'create_prediction' 用于调用预先配置的单个 Chatflow 或 Assistant。
- 灵活的 Chatflow 过滤: 支持通过 ID 白名单、ID 黑名单、名称正则白名单和名称正则黑名单来筛选需要暴露为工具的 Chatflows。
- 易于集成: 可以通过 Smithery 或手动配置 'mcpServers' 集成到 MCP 生态系统,例如 Claude Desktop。
安装步骤
- 环境准备: 确保已安装 Python 3.12 或更高版本,并安装了 'uvx' 包管理器。
- 通过 Smithery 安装 (适用于 Claude Desktop):
如果您使用 Claude Desktop,可以通过 Smithery 自动安装 'mcp-flowise':
npx -y @smithery/cli install @matthewhand/mcp-flowise --client claude - 手动安装和运行:
您也可以直接从 GitHub 仓库运行 'mcp-flowise' 服务器:
uvx --from git+https://github.com/matthewhand/mcp-flowise mcp-flowise
服务器配置 (MCP 客户端配置)
要将 'mcp-flowise' 服务器添加到 MCP 客户端(例如 Claude Desktop),您需要在客户端的 'mcpServers' 配置中添加以下 JSON 配置。以下配置示例展示了如何配置 'mcp-flowise' 服务器:
{ "mcpServers": { "flowise": { // 服务器名称,可以自定义 "command": "uvx", // 启动服务器的命令,这里使用 uvx "args": [ // 传递给 uvx 的参数 "--from", "git+https://github.com/matthewhand/mcp-flowise", // 从 GitHub 仓库获取并运行 "mcp-flowise" // 运行 mcp-flowise 服务 ], "env": { // 环境变量配置 "FLOWISE_API_KEY": "${FLOWISE_API_KEY}", // 您的 Flowise API 密钥,**必需** "FLOWISE_API_ENDPOINT": "${FLOWISE_API_ENDPOINT}" // Flowise API 的端点 URL,默认为 http://localhost:3000 } } } }
配置参数说明:
- 'command': 指定用于启动 MCP 服务器的命令。这里使用 'uvx',它能够从 Git 仓库直接运行 Python 应用。
- 'args': 传递给 'command' 的参数列表。
- '--from git+https://github.com/matthewhand/mcp-flowise': 指示 'uvx' 从指定的 Git 仓库下载并运行应用。
- 'mcp-flowise': 指定要运行的 Python 入口点,对应仓库中的 'main.py' 文件。
- 'env': 设置 MCP 服务器运行所需的环境变量。
- 'FLOWISE_API_KEY': 必需。您的 Flowise API 密钥,用于 'mcp-flowise' 服务器访问 Flowise API。请务必替换 '${FLOWISE_API_KEY}' 为您的实际 API 密钥。
- 'FLOWISE_API_ENDPOINT': Flowise API 的基础 URL。如果您的 Flowise 服务不是运行在本地默认端口,请修改为正确的 URL。
根据您的需求和环境,可能需要调整 'env' 中的其他环境变量,例如 'FLOWISE_SIMPLE_MODE' (切换运行模式), 'FLOWISE_CHATFLOW_ID', 'FLOWISE_ASSISTANT_ID' (FastMCP 模式下配置), 以及各种过滤相关的环境变量。
基本使用方法
- 确保 Flowise 服务已启动并可访问,并且您已获取有效的 Flowise API 密钥。
- 将上述 'mcpServers' 配置添加到您的 MCP 客户端配置文件中,并填入正确的 'FLOWISE_API_KEY' 和 'FLOWISE_API_ENDPOINT'。
- 启动 MCP 客户端。客户端应该能够自动连接到 'mcp-flowise' 服务器。
- 在 LLM 客户端中,您应该能够发现由 'mcp-flowise' 暴露的工具。
- LowLevel Mode: 您会看到一系列以 Flowise Chatflow 名称命名的工具。可以直接调用这些工具并传入 'question' 参数来与相应的 Chatflow 交互。
- FastMCP Mode: 您可以使用 'list_chatflows' 工具来查看可用的 Chatflows 列表,并使用 'create_prediction' 工具,根据配置的 'FLOWISE_CHATFLOW_ID' 或 'FLOWISE_ASSISTANT_ID' 以及 'question' 参数进行预测。
请参考仓库的 README.md 文件获取更详细的配置选项和高级用法,例如过滤器配置、不同运行模式的切换等。
信息
分类
AI与计算