Work-Chronicler MCP 服务器

项目简介

Work-Chronicler 的 MCP 服务器实现了对工作历史数据的暴露与交互能力,允许 AI 助手通过 MCP 协议查询、筛选、关联 PR 与 JIRA tickets,并获取项目、时间线等分析结果。服务器基于一个可组合的工具集合提供丰富的上下文能力,方便 LLM 客户端在对话中调用外部功能。

主要功能点

  • MCP 服务器核心:提供一个可注册工具的 MCP 服务器,通过标准的 MCP 方式接收请求、执行工具、并返回 JSON-RPC 风格的响应或通知。
  • 工具集合:包含以下可供 AI 客户端调用的工具
    • search_prs:按日期、仓库、组织、影响等级等筛选 PR
    • search_tickets:按项目、状态、关键词等筛选 JIRA tickets
    • get_linked_work:获取 PR 与其相关的 JIRA Tickets(或相反)
    • list_repos:列出有数据的仓库及统计信息
    • get_stats:获取工作历史的统计摘要
    • get_projects:获取检测出的项目分组及信心分布
    • get_timeline:获取按周/月分组的时间线数据
  • 数据来源与运行环境:数据来自本地工作区的工作日志(PR 与 ticket 的 Markdown 文件),支持多种传输(当前实现为 StdIO 传输,后续可扩展为 SSE/WebSocket 等),并在服务器端负责会话和能力声明。
  • 配置与数据路径:通过工作区配置读取、环境变量和工作区解析来定位数据路径,支持多配置源(工作区配置、LEGACY 配置、全局环境变量等)。
  • 开发友好性:提供 CLI 启动入口、MCP 服务器启动脚本以及简单的示例接入配置,便于本地开发与集成测试。

安装与运行

  • 构建与运行
    • 安装依赖并构建:安装依赖后执行构建,产物会在 dist/ 目录中生成。
    • 启动服务器:可从源代码直接运行本地开发版本,或在打包发布后通过 npx/work-chronicler 命令启动 MCP 服务器,推荐在本地开发阶段通过 node bin/mcp.js 启动。
  • 运行后端的入口
    • bin/mcp.js 提供直接启动 MCP 服务器的入口,node bin/mcp.js 即可启动。
    • 也可通过 npx work-chronicler mcp(若发布包中包含该入口)来启动,适合集成到 Claude/Cursor 等工具的配置中。

服务器配置(MCP 客户端配置示例说明)

说明:MCP 客户端需要将 MCP 服务器作为一个外部服务进行连接,至少需要提供 server 的启动信息(server name、command、args),以便在客户端启动时连接到 MCP 服务器。以下为基于仓库信息可用的示例配置描述(请勿直接粘贴代码,以下为注释性说明,实际配置需按 JSON 写法实现):

  • serverName: work-chronicler
    • 说明:在客户端侧标识的 MCP 服务器名称,应与服务端实现中的名称保持一致。
  • command: npx
    • 说明:启动 MCP 服务器的命令。该仓库在发布/开发时支持通过 npx 调用 work-chronicler mcp 的方式启动服务器。
  • args: ["work-chronicler", "mcp"]
    • 说明:命令参数,表示调用工作流中的 mcp 子命令来启动 MCP 服务(也可使用绝对路径的入口脚本,例如 ["node", "/path/to/work-chronicler/bin/mcp.js", "mcp"])。
  • env: 包含以下变量(可选)
    • WORK_CHRONICLER_PROFILE: 指定活动的配置文件/环境配置的 profile 名称(如 "default")。
    • WORK_CHRONICLER_HOME: 指定工作区根目录,例如 "~/.work-chronicler"。
    • 其他环境变量(如 GITHUB/JIRA tokens)由应用启动时的进程环境和配置决定,通常不在此处硬编码。
  • 备注:MCP 客户端无需理解实现细节,只需要正确指定服务器的启动命令和参数,确保服务器进程可启动并可通过 MCP 协议与客户端通讯。

基本使用流程

  • 第一步:确保本地工作区按仓库 README 说明已经初始化并生成了分析数据(fetch all、analyze等)。
  • 第二步:启动 MCP 服务器(如通过 node bin/mcp.js 或 npx work-chronicler mcp)。
  • 第三步:在 Claude Desktop 或 Cursor 的 MCP 配置中添加上述 server 配置,使 AI 助手能够通过 MCP 调用服务器暴露的工具与资源。
  • 第四步:使用 AI 助手发起请求(如查询 PR/Ticket、获取时间线、查看项目等),服务器会按 MCP 协议处理请求并返回结果。

运行与集成要点

  • 服务器端会注册一组工具,按照 MCP 协议暴露查询能力,支持 JSON-序列化的结果,用于 AI 客户端处理和渲染。
  • 服务器端主要职责包括:加载配置、定位数据输出目录、读取并解析 PR/Ticket 文件、执行工具、返回结果、以及在需要时写回数据(如标记 PR 的 impact、生成分析文件等)。
  • 客户端集成时,请确保提供正确的 server 启动命令与参数,以及必要的环境变量以匹配默认工作区路径与 profile。MCP 客户端不需要知道内部实现细节,仅需要能够通过指定的命令、参数和可选的环境变量启动和连接到 MCP 服务器。

关键词

开发者工具, AI 集成, 工作历史分析, 本地数据服务, LLM 助手

分类ID

1

服务器信息