Plan Cascade MCP 服务器

使用说明(Markdown 格式)

  • 项目简介 Plan Cascade 的 MCP 服务器端实现,遵循 Model Context Protocol(MCP)标准,为 LLM 客户端提供统一的上下文服务能力,包括资源访问、工具执行和 Prompt 模板管理,并通过 JSON-RPC 协议进行通信,支持多种传输通道与会话管理。

  • 主要功能点

    • 资源管理(Resources)/数据访问:对可用资源进行托管、注册和读取。
    • 工具注册与执行(Tools):注册外部功能,允许 LLM 客户端通过 MCP 调用工具实现外部能力。
    • Prompt 模板(Prompts):定义、渲染并提供可定制的提示模板,便于 LLM 进行对话驱动。
    • JSON-RPC 通信:与客户端通过标准 JSON-RPC 请求/响应模式交互,支持请求读取资源、执行工具、获取/渲染 Prompts 等。
    • 会话与能力声明:服务端维护会话状态、能力声明,以及对多种传输协议的支持(如 Stdio、Server-Sent Events、WebSocket)。
    • 安全性与扩展性:提供会话隔离、权限控制,以及易于扩展的后端结构。
    • 与客户端集成指南:文档中描述如何通过 MCP 客户端连接、注册资源和工具、请求提示等。
  • 安装步骤

    • 准备环境:需要 Python 3.x 环境(推荐 3.8+)。
    • 安装依赖:根据仓库的需求安装所需依赖包(如 starlette/fastapi、JSON-RPC 库、以及传输协议中间件等)。
    • 启动服务:使用仓库提供的入口启动 MCP 服务器,确保服务器对外暴露端口并监听 MCP 客户端的连接。
  • 服务器配置(JSON 配置示例) 服务器名称(server_name): plan-cascade-mcp 启动命令(command): python3 启动参数(args): ["-m", "plan_cascade.mcp_server.main", "--host", "0.0.0.0", "--port", "8000"]

    说明:以上配置用于 MCP 客户端注册并建立连接,强调服务器名称、启动命令与参数。MCP 客户端只需要该配置来与服务器建立连接与交互。在实际环境中,请根据具体实现路径和入口调整命令与参数。

  • 基本使用方法

    • 启动服务器后,客户端通过 JSON-RPC 发送请求,与服务器进行资源读取、工具调用和提示获取等操作。
    • 客户端可通过配置声明服务器能力(如支持的资源类型、可用工具、Prompts 模板等)。
    • 使用示例(以 JSON-RPC 风格描述,不涉及具体代码):客户端向 MCP 服务器发送读取资源的请求、执行工具的请求、获取并渲染 Prompt 等操作,服务器返回标准化的 JSON-RPC 响应。
    • 服务器支持多种传输通道,客户端可选择 Stdio、SSE、WebSocket 等传输方式进行后续通信。
    • 如需停止服务,请优雅关停,确保会话与资源状态正确清理。
  • 备注

    • MCP 客户端不需要额外的实现细节,只需知道服务器地址、端口、以及支持的 JSON-RPC 接口即可。
    • 具体接口名称、请求参数与响应字段以仓库中的 MCP 服务实现文档为准。

服务器信息