使用说明

项目简介

'mcp-flowise' 是一个基于 Model Context Protocol (MCP) 的服务器实现,旨在连接 Flowise API 和 LLM 客户端。它允许大型语言模型 (LLM) 通过标准化的 MCP 协议调用和利用 Flowise 中创建的 Chatflows 和 Assistants,从而扩展 LLM 的能力边界。

主要功能点

  • Flowise Chatflows 作为工具: 将 Flowise 中预先配置好的 Chatflows 动态或静态地注册为 MCP 工具,使得 LLM 可以通过调用这些工具来执行对话流程或任务。
  • 两种运行模式:
    • LowLevel Mode (动态工具模式): 自动发现并注册 Flowise API 中的所有 Chatflows 作为独立的工具。工具名称与 Chatflow 名称对应,方便直接调用。
    • FastMCP Mode (静态工具模式): 提供 'list_chatflows' 和 'create_prediction' 两个通用工具。'list_chatflows' 用于列出可用的 Chatflows,'create_prediction' 用于调用预先配置的单个 Chatflow 或 Assistant。
  • 灵活的 Chatflow 过滤: 支持通过 ID 白名单、ID 黑名单、名称正则白名单和名称正则黑名单来筛选需要暴露为工具的 Chatflows。
  • 易于集成: 可以通过 Smithery 或手动配置 'mcpServers' 集成到 MCP 生态系统,例如 Claude Desktop。

安装步骤

  1. 环境准备: 确保已安装 Python 3.12 或更高版本,并安装了 'uvx' 包管理器。
  2. 通过 Smithery 安装 (适用于 Claude Desktop): 如果您使用 Claude Desktop,可以通过 Smithery 自动安装 'mcp-flowise':
    npx -y @smithery/cli install @matthewhand/mcp-flowise --client claude
  3. 手动安装和运行: 您也可以直接从 GitHub 仓库运行 'mcp-flowise' 服务器:
    uvx --from git+https://github.com/matthewhand/mcp-flowise mcp-flowise

服务器配置 (MCP 客户端配置)

要将 'mcp-flowise' 服务器添加到 MCP 客户端(例如 Claude Desktop),您需要在客户端的 'mcpServers' 配置中添加以下 JSON 配置。以下配置示例展示了如何配置 'mcp-flowise' 服务器:

{
    "mcpServers": {
        "flowise": {  // 服务器名称,可以自定义
            "command": "uvx",  // 启动服务器的命令,这里使用 uvx
            "args": [  // 传递给 uvx 的参数
                "--from",
                "git+https://github.com/matthewhand/mcp-flowise", // 从 GitHub 仓库获取并运行
                "mcp-flowise" // 运行 mcp-flowise 服务
            ],
            "env": {  // 环境变量配置
                "FLOWISE_API_KEY": "${FLOWISE_API_KEY}",  // 您的 Flowise API 密钥,**必需**
                "FLOWISE_API_ENDPOINT": "${FLOWISE_API_ENDPOINT}" // Flowise API 的端点 URL,默认为 http://localhost:3000
            }
        }
    }
}

配置参数说明:

  • 'command': 指定用于启动 MCP 服务器的命令。这里使用 'uvx',它能够从 Git 仓库直接运行 Python 应用。
  • 'args': 传递给 'command' 的参数列表。
    • '--from git+https://github.com/matthewhand/mcp-flowise': 指示 'uvx' 从指定的 Git 仓库下载并运行应用。
    • 'mcp-flowise': 指定要运行的 Python 入口点,对应仓库中的 'main.py' 文件。
  • 'env': 设置 MCP 服务器运行所需的环境变量。
    • 'FLOWISE_API_KEY': 必需。您的 Flowise API 密钥,用于 'mcp-flowise' 服务器访问 Flowise API。请务必替换 '${FLOWISE_API_KEY}' 为您的实际 API 密钥。
    • 'FLOWISE_API_ENDPOINT': Flowise API 的基础 URL。如果您的 Flowise 服务不是运行在本地默认端口,请修改为正确的 URL。

根据您的需求和环境,可能需要调整 'env' 中的其他环境变量,例如 'FLOWISE_SIMPLE_MODE' (切换运行模式), 'FLOWISE_CHATFLOW_ID', 'FLOWISE_ASSISTANT_ID' (FastMCP 模式下配置), 以及各种过滤相关的环境变量。

基本使用方法

  1. 确保 Flowise 服务已启动并可访问,并且您已获取有效的 Flowise API 密钥。
  2. 将上述 'mcpServers' 配置添加到您的 MCP 客户端配置文件中,并填入正确的 'FLOWISE_API_KEY' 和 'FLOWISE_API_ENDPOINT'。
  3. 启动 MCP 客户端。客户端应该能够自动连接到 'mcp-flowise' 服务器。
  4. 在 LLM 客户端中,您应该能够发现由 'mcp-flowise' 暴露的工具。
    • LowLevel Mode: 您会看到一系列以 Flowise Chatflow 名称命名的工具。可以直接调用这些工具并传入 'question' 参数来与相应的 Chatflow 交互。
    • FastMCP Mode: 您可以使用 'list_chatflows' 工具来查看可用的 Chatflows 列表,并使用 'create_prediction' 工具,根据配置的 'FLOWISE_CHATFLOW_ID' 或 'FLOWISE_ASSISTANT_ID' 以及 'question' 参数进行预测。

请参考仓库的 README.md 文件获取更详细的配置选项和高级用法,例如过滤器配置、不同运行模式的切换等。

信息

分类

AI与计算