AI Product Manager MCP Servers
使用说明(Markdown 格式)
-
项目简介
- 本仓库实现了一组基于 MCP(Model Context Protocol)的服务器端组件,用于向 LLM 客户端提供可访问的资源、可执行的工具,以及可渲染的提示模板等能力。服务器通过统一的 JSON-RPC 协议与客户端通信,支持多种传输方式和会话管理,便于在 AI 产品管理场景下为 LLM 提供上下文服务。
-
主要功能点
- 资源与数据能力:托管和管理资源、数据访问接口等,以便 LLM 能够查询和获取需要的上下文信息。
- 工具注册与执行:向 LLM 客户端注册可调用的工具/外部功能,LLM 通过 JSON-RPC 调用并获取结果。
- 提示模板与渲染:定义与渲染 Prompts,支持可定制的 LLM 交互模式。
- 多传输协议与会话管理:支持 STDIO、SSE、WebSocket 等传输方式,具备会话管理与能力声明能力。
- 安全与可扩展性:环境变量配置、分组与权限管理,以及便于扩展的新服务器接入点。
-
安装步骤
- 在仓库根目录执行全局安装依赖(如 Node/TypeScript 环境、Python 运行环境等),并针对每个 MCP 服务器目录执行构建与启动。
- 逐个服务器的示例流程(以 Jira/GitHub/Slack 等服务器为例):
- 进入服务器目录,例如 mcps/servers/jira-pm-assistant
- 安装依赖并构建:npm install
- 构建产物(编译 TS → JS):npm run build
- 启动服务器(示例):“node dist/index.js”(具体路径以构建产物为准)
- 重要依赖与环境变量(示例,具体以各子服务器为准)
- jira-pm-assistant: 需要 JIRA_HOST、JIRA_EMAIL、JIRA_API_TOKEN 等环境变量
- github-pm-tools: 需要 GITHUB_TOKEN
- confluence-docs: 需要 CONFLUENCE_HOST、CONFLUENCE_EMAIL、CONFLUENCE_API_TOKEN
- slack-pm-assistant: 需要 SLACK_BOT_TOKEN,若启用搜索还需 SLACK_USER_TOKEN
- 统一说明:MCP 客户端连接服务器需要通过“server_name/command/args”的形式在配置中指定启动命令与参数(见下方的服务器配置示例)。服务器端为 MCP 客户端暴露可调用的工具集与能力声明。
-
服务器配置(MCP 客户端使用的启动配置示例)
- 下列 JSON 配置示例列出了仓库中一个或多个 MCP 服务器的运行信息。每条记录包含服务器名称、启动命令、工作目录与参数注释。说明中包含必要的运行步骤,但不提供具体实现代码,仅用于帮助 MCP 客户端了解如何启动与连接服务器。
- 服务器启动配置(示例) [ { "server_name": "langsmith-pm-tools", "command": "node", "args": ["dist/index.js"], "working_directory": "mcps/servers/langsmith-pm-tools", "notes": "进入该目录,执行 npm install、npm run build 生成 dist/index.js;启动后,需设置 LANGSMITH_API_KEY 环境变量以访问 LangSmith API。" }, { "server_name": "github-pm-tools", "command": "node", "args": ["dist/index.js"], "working_directory": "mcps/servers/github-pm-tools", "notes": "进入该目录,执行 npm install、npm run build;需要 GITHUB_TOKEN。" }, { "server_name": "jira-pm-assistant", "command": "node", "args": ["dist/index.js"], "working_directory": "mcps/servers/jira-pm-assistant", "notes": "进入该目录,执行 npm install、npm run build;需要 JIRA_HOST、JIRA_EMAIL、JIRA_API_TOKEN。" }, { "server_name": "confluence-docs", "command": "node", "args": ["dist/index.js"], "working_directory": "mcps/servers/confluence-docs", "notes": "进入该目录,执行 npm install、npm run build;需要 CONFLUENCE_HOST、CONFLUENCE_EMAIL、CONFLUENCE_API_TOKEN。" }, { "server_name": "slack-pm-assistant", "command": "node", "args": ["dist/index.js"], "working_directory": "mcps/servers/slack-pm-assistant", "notes": "进入该目录,执行 npm install、npm run build;需要 SLACK_BOT_TOKEN,若启用消息搜索还需 SLACK_USER_TOKEN。" } ]
- 注:以上配置示例仅用于 MCP 客户端集成演示。实际部署时,请在对应服务器目录执行构建后启动,并确保环境变量按需配置。
-
基本使用方法
- MCP 客户端连接服务器(示例流程)
- 在客户端配置中指定要连接的服务器,例如 Jira、GitHub、Slack 等服务器。
- 通过服务器暴露的工具集合进行资源查询与外部调用,例如读取 Jira 项目信息、调用 Slack 发送消息等。
- 调用流程简要
- 客户端向 MCP 服务器发送 ListTools 请求,获取可用工具清单及输入 schema。
- 客户端根据需要请求某个 Tool 的执行,服务器执行外部 API 调用并返回 JSON-RPC 响应结果。
- 客户端可根据返回的结果进一步生成 Prompt、渲染模板并和 LLM 协同交互。
- 注意事项
- 各 MCP 服务器通常需要预置的环境变量(如 API Key、账号信息等),请在部署前准备好。
- 服务器启动前请确保已经完成依赖安装与构建步骤。
- MCP 客户端的配置和使用方式可能因实现而异,请参阅具体服务器的文档或注释。
- MCP 客户端连接服务器(示例流程)
-
可能的扩展
- 增加新的工具接入其他外部系统,如数据库、监控平台、版本控制系统等。
- 支持更多传输协议(如 WebSocket 全双工、SSE),提升实时性与稳定性。
- 增强安全策略,例如身份认证、权限控制、请求审计等。
-
重要提示
- 本仓库中的 MCP 服务器实现覆盖 Jira、Confluence、GitHub、LangSmith、Braintrust、Slack 等集成点,具备完整的 ListTools/CallTool 的实现框架,且给出从环境变量到启动的完整示例与约定。请按实际运行环境配置部署、构建并连接客户端。