ProxyWhirl MCP Server
- 项目简介
- ProxyWhirl 提供一个完整的 MCP 服务端实现,用于向大语言模型客户端以统一的上下文协议暴露资源、工具、以及可自定义的提示模板,允许 LLM 通过 JSON-RPC 调用服务器端功能。
- 主要功能点
- 资源管理:托管并管理数据资源,使 LLM 客户端能够按需读取、查询或渲染资源上下文。
- 工具注册与执行:注册并调用外部功能,允许 LLM 通过工具访问外部能力。
- 提示模板:定义、渲染并提供可定制的提示模板,支持多交互模式。
- JSON-RPC 通信:前后端通过 JSON-RPC 进行请求与响应,支持会话管理和能力声明。
- 服务器可扩展性:设计上考虑多传输协议(如 STDIO、SSE、WebSocket)等的接入扩展,提升与不同客户端的兼容性。
- 安装步骤
- 将仓库代码克隆到本地。
- 安装依赖(如 Python 环境下执行:pip install -r requirements.txt,若存在)。
- 根据服务器配置,准备并启动 MCP 服务器组件(见下方服务器配置示例)。
- 服务器配置(MCP 客户端需要至少提供 MCP 服务器的启动命令及参数来建立连接)
- 以下为基于仓库信息的准确配置项示例(JSON 格式,供 MCP 客户端参考,不作为客户端代码): { "server_name": "ProxyWhirl MCP Server", "command": "python -m proxywhirl.mcp.server", "args": [ "--host", "0.0.0.0", "--port", "5000", "--log-level", "INFO" ], "description": "ProxyWhirl MCP 服务器实例,提供资源、工具与 prompts 的上下文服务,使用 JSON-RPC 与客户端通信。" }
- 基本使用方法
- 启动服务器:按上方配置在服务器端启动 mcp.server,确保网络可达。
- 客户端连接:MCP 客户端通过 JSON-RPC 请求向服务器读取资源、调用工具、获取或渲染 Prompts。
- 运行时管理:服务器端负责会话创建、能力声明与资源/工具的注册与维护,客户端通过 RPC 进行调用和订阅通知。
- 安全与扩展:如需使用不同传输协议,可在服务器实现中扩展(如 SSE/WebSocket),并通过相应的传输适配器接入。