ProxyWhirl MCP Server

  • 项目简介
    • ProxyWhirl 提供一个完整的 MCP 服务端实现,用于向大语言模型客户端以统一的上下文协议暴露资源、工具、以及可自定义的提示模板,允许 LLM 通过 JSON-RPC 调用服务器端功能。
  • 主要功能点
    • 资源管理:托管并管理数据资源,使 LLM 客户端能够按需读取、查询或渲染资源上下文。
    • 工具注册与执行:注册并调用外部功能,允许 LLM 通过工具访问外部能力。
    • 提示模板:定义、渲染并提供可定制的提示模板,支持多交互模式。
    • JSON-RPC 通信:前后端通过 JSON-RPC 进行请求与响应,支持会话管理和能力声明。
    • 服务器可扩展性:设计上考虑多传输协议(如 STDIO、SSE、WebSocket)等的接入扩展,提升与不同客户端的兼容性。
  • 安装步骤
    • 将仓库代码克隆到本地。
    • 安装依赖(如 Python 环境下执行:pip install -r requirements.txt,若存在)。
    • 根据服务器配置,准备并启动 MCP 服务器组件(见下方服务器配置示例)。
  • 服务器配置(MCP 客户端需要至少提供 MCP 服务器的启动命令及参数来建立连接)
    • 以下为基于仓库信息的准确配置项示例(JSON 格式,供 MCP 客户端参考,不作为客户端代码): { "server_name": "ProxyWhirl MCP Server", "command": "python -m proxywhirl.mcp.server", "args": [ "--host", "0.0.0.0", "--port", "5000", "--log-level", "INFO" ], "description": "ProxyWhirl MCP 服务器实例,提供资源、工具与 prompts 的上下文服务,使用 JSON-RPC 与客户端通信。" }
  • 基本使用方法
    • 启动服务器:按上方配置在服务器端启动 mcp.server,确保网络可达。
    • 客户端连接:MCP 客户端通过 JSON-RPC 请求向服务器读取资源、调用工具、获取或渲染 Prompts。
    • 运行时管理:服务器端负责会话创建、能力声明与资源/工具的注册与维护,客户端通过 RPC 进行调用和订阅通知。
    • 安全与扩展:如需使用不同传输协议,可在服务器实现中扩展(如 SSE/WebSocket),并通过相应的传输适配器接入。

服务器信息