AutoPay MCP Server
- 项目简介
- 该仓库包含用于 AutoPay 协议生态的 MCP(Model Context Protocol)服务器组件,用以对接 Claude 等 MCP 兼容的 AI 客户端,实现资源、工具、提示模板等 MCP 资源的托管与服务能力暴露。
- 主要功能点
- MCP 核心能力:接收和响应 MCP JSON-RPC 请求,向 LLM 客户端提供资源、工具和提示模板等上下文信息。
- 资源管理(Resources):托管与管理数据资源,提供数据访问能力。
- 工具注册与执行(Tools):注册可供 LLM 调用的外部功能、执行工具请求。
- Prompt 模板定义与渲染(Prompts):定义并渲染可定制的提示模板,支持多种交互模式。
- 会话与能力管理:会话生命周期、能力声明,以及对客户端权限的控制。
- 多传输协议支持:可选使用 Stdio、SSE、WebSocket 等传输方式与客户端进行通信。
- 安装步骤
- 克隆仓库并进入 MCP 服务器目录。
- 安装依赖(如 npm install / pnpm install)。
- 构建与运行 MCP 服务器(如 npm run build 与 npm run start,或按实际包.json 的启动命令执行)。
- 服务器配置(供 MCP 客户端使用的配置,JSON 格式)
- 该配置用于 MCP 客户端了解如何连接和使用 MCP 服务器;配置示例仅供参考,实际字段可依据实现细节调整。
- 配置示例(JSON,描述字段含义在注释中说明): { "serverName": "AutoPay MCP Server", "command": "node", "args": ["dist/server.js", "--port", "3000", "--transports", "stdio,sse,ws"], "transports": ["stdio", "sse", "websocket"], "description": "AutoPay MCP 服务器(JSON-RPC),提供 Resources、Tools 与 Prompts 的 MCP 服务能力", "resourcesEndpoint": "/resources", "toolsEndpoint": "/tools", "promptsEndpoint": "/prompts", "notes": "实际部署时请根据环境变量与部署架构调整端口、传输协议及路径" } 说明:该配置仅用于描述 MCP 客户端连接所需信息,MCP 客户端本身无需实现细节,只需按照该启动命令与参数进行连接即可。
- 基本使用方法
- 启动服务器后,MCP 客户端通过 JSON-RPC 向服务器发送请求,获取和操作 Resources、Tools、Prompts。
- 客户端可通过指定的传输协议(stdio、SSE、WebSocket)建立连接,进行会话建立、能力协商和资源访问。
- 通过服务端的会话管理,可实现跨对话的上下文共享与隔离,保障安全性与可扩展性。
- 通过 Prompts 提供定制化的 LLM 交互模板,结合 Resources 与 Tools 构建丰富的对话场景。