AI Product Manager MCP Servers

使用说明(Markdown 格式)

  • 项目简介

    • 本仓库实现了一组基于 MCP(Model Context Protocol)的服务器端组件,用于向 LLM 客户端提供可访问的资源、可执行的工具,以及可渲染的提示模板等能力。服务器通过统一的 JSON-RPC 协议与客户端通信,支持多种传输方式和会话管理,便于在 AI 产品管理场景下为 LLM 提供上下文服务。
  • 主要功能点

    • 资源与数据能力:托管和管理资源、数据访问接口等,以便 LLM 能够查询和获取需要的上下文信息。
    • 工具注册与执行:向 LLM 客户端注册可调用的工具/外部功能,LLM 通过 JSON-RPC 调用并获取结果。
    • 提示模板与渲染:定义与渲染 Prompts,支持可定制的 LLM 交互模式。
    • 多传输协议与会话管理:支持 STDIO、SSE、WebSocket 等传输方式,具备会话管理与能力声明能力。
    • 安全与可扩展性:环境变量配置、分组与权限管理,以及便于扩展的新服务器接入点。
  • 安装步骤

    • 在仓库根目录执行全局安装依赖(如 Node/TypeScript 环境、Python 运行环境等),并针对每个 MCP 服务器目录执行构建与启动。
    • 逐个服务器的示例流程(以 Jira/GitHub/Slack 等服务器为例):
      • 进入服务器目录,例如 mcps/servers/jira-pm-assistant
      • 安装依赖并构建:npm install
      • 构建产物(编译 TS → JS):npm run build
      • 启动服务器(示例):“node dist/index.js”(具体路径以构建产物为准)
    • 重要依赖与环境变量(示例,具体以各子服务器为准)
      • jira-pm-assistant: 需要 JIRA_HOST、JIRA_EMAIL、JIRA_API_TOKEN 等环境变量
      • github-pm-tools: 需要 GITHUB_TOKEN
      • confluence-docs: 需要 CONFLUENCE_HOST、CONFLUENCE_EMAIL、CONFLUENCE_API_TOKEN
      • slack-pm-assistant: 需要 SLACK_BOT_TOKEN,若启用搜索还需 SLACK_USER_TOKEN
    • 统一说明:MCP 客户端连接服务器需要通过“server_name/command/args”的形式在配置中指定启动命令与参数(见下方的服务器配置示例)。服务器端为 MCP 客户端暴露可调用的工具集与能力声明。
  • 服务器配置(MCP 客户端使用的启动配置示例)

    • 下列 JSON 配置示例列出了仓库中一个或多个 MCP 服务器的运行信息。每条记录包含服务器名称、启动命令、工作目录与参数注释。说明中包含必要的运行步骤,但不提供具体实现代码,仅用于帮助 MCP 客户端了解如何启动与连接服务器。
    • 服务器启动配置(示例) [ { "server_name": "langsmith-pm-tools", "command": "node", "args": ["dist/index.js"], "working_directory": "mcps/servers/langsmith-pm-tools", "notes": "进入该目录,执行 npm install、npm run build 生成 dist/index.js;启动后,需设置 LANGSMITH_API_KEY 环境变量以访问 LangSmith API。" }, { "server_name": "github-pm-tools", "command": "node", "args": ["dist/index.js"], "working_directory": "mcps/servers/github-pm-tools", "notes": "进入该目录,执行 npm install、npm run build;需要 GITHUB_TOKEN。" }, { "server_name": "jira-pm-assistant", "command": "node", "args": ["dist/index.js"], "working_directory": "mcps/servers/jira-pm-assistant", "notes": "进入该目录,执行 npm install、npm run build;需要 JIRA_HOST、JIRA_EMAIL、JIRA_API_TOKEN。" }, { "server_name": "confluence-docs", "command": "node", "args": ["dist/index.js"], "working_directory": "mcps/servers/confluence-docs", "notes": "进入该目录,执行 npm install、npm run build;需要 CONFLUENCE_HOST、CONFLUENCE_EMAIL、CONFLUENCE_API_TOKEN。" }, { "server_name": "slack-pm-assistant", "command": "node", "args": ["dist/index.js"], "working_directory": "mcps/servers/slack-pm-assistant", "notes": "进入该目录,执行 npm install、npm run build;需要 SLACK_BOT_TOKEN,若启用消息搜索还需 SLACK_USER_TOKEN。" } ]
    • 注:以上配置示例仅用于 MCP 客户端集成演示。实际部署时,请在对应服务器目录执行构建后启动,并确保环境变量按需配置。
  • 基本使用方法

    • MCP 客户端连接服务器(示例流程)
      • 在客户端配置中指定要连接的服务器,例如 Jira、GitHub、Slack 等服务器。
      • 通过服务器暴露的工具集合进行资源查询与外部调用,例如读取 Jira 项目信息、调用 Slack 发送消息等。
    • 调用流程简要
      • 客户端向 MCP 服务器发送 ListTools 请求,获取可用工具清单及输入 schema。
      • 客户端根据需要请求某个 Tool 的执行,服务器执行外部 API 调用并返回 JSON-RPC 响应结果。
      • 客户端可根据返回的结果进一步生成 Prompt、渲染模板并和 LLM 协同交互。
    • 注意事项
      • 各 MCP 服务器通常需要预置的环境变量(如 API Key、账号信息等),请在部署前准备好。
      • 服务器启动前请确保已经完成依赖安装与构建步骤。
      • MCP 客户端的配置和使用方式可能因实现而异,请参阅具体服务器的文档或注释。
  • 可能的扩展

    • 增加新的工具接入其他外部系统,如数据库、监控平台、版本控制系统等。
    • 支持更多传输协议(如 WebSocket 全双工、SSE),提升实时性与稳定性。
    • 增强安全策略,例如身份认证、权限控制、请求审计等。
  • 重要提示

    • 本仓库中的 MCP 服务器实现覆盖 Jira、Confluence、GitHub、LangSmith、Braintrust、Slack 等集成点,具备完整的 ListTools/CallTool 的实现框架,且给出从环境变量到启动的完整示例与约定。请按实际运行环境配置部署、构建并连接客户端。

服务器信息