使用说明(Markdown 格式)
-
项目简介
- GTM Wizard MCP 服务器是在本仓库实现的一个后端服务,按照 Model Context Protocol(MCP)的规范,为 AI 客户端提供结构化的上下文服务。它托管资源、注册并执行工具、定义并渲染提示模板,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多种传输方式。
-
主要功能点
- 资源管理:提供 list_resources 与 read_resource 接口,列出并读取 GTM 基础资源(foundation resources),资源使用 gtm://foundations/ 路径前缀。
- 工具执行:提供 list_tools 与 call_tool 接口,包含诊断、打分、分类、路由和合规性等工具的定义与执行能力。
- 提示模板:提供 list_prompts 与 get_prompt 接口,定义并渲染 4 种 Prompts,用于 Lead Qualification、ICP 定义、外部 Campaign 设计和 scoring 校准。
- MCP 服务器能力:基于 mcp.server 实现,使用 stdio 指定传输通道,支持异步请求处理、JSON-RPC 风格的请求/响应以及初始化选项。
- 资源与知识库:将本仓库中的 Foundation 资源以 gtm://foundations/ 路径暴露,提供统一的只读文本资源(text/markdown)。
- 运行与测试友好:包含完整的 API 风格接口实现,且配套测试用例覆盖资源、 prompts、工具等核心组件。
-
安装步骤
- 需要 Python 3.10、3.11 或 3.12。
- 直接从源码安装并运行,示例步骤(不区分具体命令示例,按实际环境执行):
- 克隆仓库并安装开发依赖
- 运行服务器:使用 Python 模块方式启动服务器,例如 python -m gtm_wizard.server(服务器将通过标准输入/输出进行通信)
- 运行后的默认通信形式基于标准输入输出(stdio),便于与 MCP 客户端(如 Claude/Cursor 等)进行整合测试。
- 额外说明:仓库 README 提供了兼容的启动方式,如 uvx 的快速启动路径;实际开发与测试中可按 README 的 Quick Start 指引使用。
-
服务器配置(MCP 客户端连接配置示例,供参考,不需要在代码中编写) 下面给出一个用于 MCP 客户端配置的示例 JSON,描述如何启动并连接到该 MCP 服务器。请注意,该配置用于客户端侧的进程管理,不属于服务器端实现代码的一部分。 { "server_name": "gtm-wizard", "command": "python", "args": ["-m", "gtm_wizard.server"] } 说明:
- server_name 与仓库中的服务器名称保持一致,用于在客户端侧标识该 MCP 服务器。
- command 与 args 指定如何启动该服务器进程;在本仓库的实现中,推荐使用 python -m gtm_wizard.server 启动,以便通过 stdio 进行通信。
- 该配置仅用于客户端启动时的进程管理,实际 MCP 服务器端的功能与接口在代码中实现,客户端本身并不需要依赖此配置来执行具体 API 调用。
-
基本使用方法
- 启动服务器后,客户端通过 JSON-RPC 请求与服务器交互,调用诸如 list_resources、read_resource、list_tools、call_tool、list_prompts、get_prompt、etc。你可以先用 MCP Inspector 或对应的客户端示例来测试。
- 常用测试路径(在开发环境中已覆盖的测试用例方向):
- 列出基础资源:list_resources
- 读取某个资源内容:read_resource(如 gtm://foundations/what-is-gtm-engineering)
- 列出工具:list_tools
- 调用工具:call_tool(如 diagnose_rate_limiting、score_lead 等)
- 列出 Prompts:list_prompts
- 获取具体 Prompt:get_prompt(如 lead-qualification-workflow, icp-definition 等)
- 服务器自身提供的资源、工具、提示均基于本仓库的实现和数据,利于构建基于 MCP 的 AI 助手工作流。
-
备注
- 服务器实现时序、端点和数据结构参照仓库中的实现:资源通过 URI(gtm://foundations/)进行定位;工具具有结构化的 inputSchema;Prompts 通过文本内容进行渲染。
- 客户端的具体调试与联调可结合 MCP Inspector、测试用例以及官方 MCP 客户端进行综合验证。
-
使用场景
- 用于构建基于模型上下文的 AI 助手工作流,支持知识资源访问、工具执行、以及与 LLM 的提示渲染协同,适用于需要统一上下文与能力的企业级 AI 应用。
-
关键词
- 自动化上下文、资源管理、工具执行、提示模板、AI 助手
信息
分类
AI与计算