Webhooks-CC MCP 服务器
使用说明内容(Markdown格式)
-
项目简介
- 这是一个完整的 MCP 服务器实现,基于 Model Context Protocol(MCP)。核心职责是通过标准化的 JSON-RPC 形式向 LLM 客户端暴露资源管理、工具执行与提示模板等能力。实现了对 Webhooks 场景的上下文服务框架,支持将 AI 代理注册并执行工具、管理端点、请求等资源。
-
主要功能点
- 资源管理(Resources):对 webhook 端点、请求等资源的创建、查询、更新、删除等操作的支持(通过 MCP 工具暴露)。
- 工具注册与执行(Tools):提供一组 MCP 工具,供 AI 代理以自然语言形式创建/查询端点、发送测试请求、重放请求等操作,并返回标准化的 JSON 结果。
- 提示模板(Prompts)(相关实现存在于 MCP 包内工具描述中,便于与 LLM 交互时渲染与选择 Prompt)。
- JSON-RPC 通信:服务器以 MCP 机制实现工具调用与结果返回,适配 LLM 客户端的 JSON-RPC 交互。
- 基于 Webhooks 平台的实际业务场景:通过 MCP 服务协同 webhooks 的端点、请求、重放等能力。
- 可扩展传输协议:当前实现以 STDIO 形式提供 MCP 服务端传输(通过命令行开启,便于与 AI 工具链整合)。
-
安装与运行
- 准备:确保环境中具备 Node.js/TypeScript 构建与依赖安装能力。
- 运行 MCP 服务器(标准 STDIO 传输)
- 直接使用包提供的 MCP 服务入口,通过命令启动:npx @webhooks-cc/mcp 以 STDIO 流传输启动 MCP 服务器并监听 JSON-RPC 调用。
- 启动后,服务器将等待来自 LLM 客户端的 JSON-RPC 请求并返回结果。
- 设置与集成
- MCP 客户端(LLM 代理)需要配置的最小信息包括服务器名称、启动命令及参数,以便通过 MCP 客户端连接服务器并调用工具。
- 本仓库提供了一个命名清晰的工具集合,可通过 MCP 客户端调用来管理 webhook 端点、发送测试请求、查询与重放等。
-
服务器配置(给 MCP 客户端的配置示例,JSON 格式描述,非代码文本)
- serverName: "webhooks-cc"
- command: "npx"
- args: ["-y", "@webhooks-cc/mcp"]
- env(可选):
- WHK_API_KEY: "<你的 webhooks.cc API Key>"
- 说明:MCP 客户端需要提供一个服务器启动命令及其参数来与 MCP 服务器建立连接;本仓库的 MCP 服务器默认通过 STDIO 传输接入,具体的命令与参数如上所示,若需要其它传输方式(如 SSE/WebSocket),请在实际部署中按 MCP 库的接入方式进行扩展。
- 备注:MCP 服务器还可配置 webhookUrl/baseUrl 等选项,以便客户端在工具执行过程中与外部服务交互(由客户端提供并在服务器创建时传入)。
-
基本使用方法
- 第一步:准备并启动 MCP 服务器
- 使用命令 npx @webhooks-cc/mcp 启动服务器,确保 WHK_API_KEY 等必要环境变量就绪(若使用仓库自带示例,请参照上述配置)。
- 第二步:为 AI 工具注册与配置(通过 MCP 客户端连接并调用工具)
- 通过 AI 代理与 MCP 服务器建立连接后,可以调用诸如创建端点、列出端点、发送测试请求、重放请求、获取请求等工具。
- 第三步:使用工具执行工作流
- 例如:AI 代理可以通过文本指令触发 tool.run,得到端点信息或执行相关操作,并将结果返回给 LLM 进行后续处理。
- 第四步:扩展与维护
- 系统内置了 12 个工具,用于常用的 webhook 场景(端点管理、请求处理、重放、模板发送、描述/列举等)。如需扩展,参考工具注册流程在 MCP 服务器中添加新的 tool。
- 第一步:准备并启动 MCP 服务器
-
运行与集成示例
- 你可以将 MCP 服务器与一个 LLM 客户端配合使用,LLM 客户端通过 JSON-RPC 调用注册好的工具,完成对 webhook 端点、请求及重放等操作,从而实现 AI 辅助的 webhook 流程自动化。