Plan Cascade MCP 服务器
使用说明(Markdown 格式)
-
项目简介 Plan Cascade 的 MCP 服务器端实现,遵循 Model Context Protocol(MCP)标准,为 LLM 客户端提供统一的上下文服务能力,包括资源访问、工具执行和 Prompt 模板管理,并通过 JSON-RPC 协议进行通信,支持多种传输通道与会话管理。
-
主要功能点
- 资源管理(Resources)/数据访问:对可用资源进行托管、注册和读取。
- 工具注册与执行(Tools):注册外部功能,允许 LLM 客户端通过 MCP 调用工具实现外部能力。
- Prompt 模板(Prompts):定义、渲染并提供可定制的提示模板,便于 LLM 进行对话驱动。
- JSON-RPC 通信:与客户端通过标准 JSON-RPC 请求/响应模式交互,支持请求读取资源、执行工具、获取/渲染 Prompts 等。
- 会话与能力声明:服务端维护会话状态、能力声明,以及对多种传输协议的支持(如 Stdio、Server-Sent Events、WebSocket)。
- 安全性与扩展性:提供会话隔离、权限控制,以及易于扩展的后端结构。
- 与客户端集成指南:文档中描述如何通过 MCP 客户端连接、注册资源和工具、请求提示等。
-
安装步骤
- 准备环境:需要 Python 3.x 环境(推荐 3.8+)。
- 安装依赖:根据仓库的需求安装所需依赖包(如 starlette/fastapi、JSON-RPC 库、以及传输协议中间件等)。
- 启动服务:使用仓库提供的入口启动 MCP 服务器,确保服务器对外暴露端口并监听 MCP 客户端的连接。
-
服务器配置(JSON 配置示例) 服务器名称(server_name): plan-cascade-mcp 启动命令(command): python3 启动参数(args): ["-m", "plan_cascade.mcp_server.main", "--host", "0.0.0.0", "--port", "8000"]
说明:以上配置用于 MCP 客户端注册并建立连接,强调服务器名称、启动命令与参数。MCP 客户端只需要该配置来与服务器建立连接与交互。在实际环境中,请根据具体实现路径和入口调整命令与参数。
-
基本使用方法
- 启动服务器后,客户端通过 JSON-RPC 发送请求,与服务器进行资源读取、工具调用和提示获取等操作。
- 客户端可通过配置声明服务器能力(如支持的资源类型、可用工具、Prompts 模板等)。
- 使用示例(以 JSON-RPC 风格描述,不涉及具体代码):客户端向 MCP 服务器发送读取资源的请求、执行工具的请求、获取并渲染 Prompt 等操作,服务器返回标准化的 JSON-RPC 响应。
- 服务器支持多种传输通道,客户端可选择 Stdio、SSE、WebSocket 等传输方式进行后续通信。
- 如需停止服务,请优雅关停,确保会话与资源状态正确清理。
-
备注
- MCP 客户端不需要额外的实现细节,只需知道服务器地址、端口、以及支持的 JSON-RPC 接口即可。
- 具体接口名称、请求参数与响应字段以仓库中的 MCP 服务实现文档为准。