AI Productivity MCP 统一大脑服务器

使用说明(Markdown 格式)

  1. 项目简介
  • 该仓库实现了一个 MCP 服务器端(MCP Universal Brain),用于本地 AI 客户端在会话中获取上下文、执行工具、获取提示模板等能力。服务器通过 MCP 标准的 JSON-RPC 形式与客户端通信,支持会话管理、能力声明以及多种传输模式。
  1. 主要功能点
  • MCP 服务器核心功能
    • 提供 9 个可调用工具(如 get_last_session_context、get_routing_recommendation、get_efficiency_snapshot、get_active_recommendations、get_project_stats、get_model_comparison、push_handoff_note、get_optimal_prompt_structure、get_topic_summary)。
    • 支持资源、工具与 Prompt 的统一注册、查询与渲染。
    • 框架内置会话管理、模型与路由的能力声明,支持扩展的场景。
    • 通过 stdio(或其他传输)与客户端进行 JSON-RPC 通信。
  • 运行与集成
    • 服务器端提供 MCP 入口,独立运行即可对外提供服务,便于 AI 助手在本地查询数据、执行功能、获取模板与建议。
    • 与前端应用或其他 LLM 客户端集成时,可在客户端配置中通过 MCP 服务器提供的工具进行访问。
  1. 安装与运行步骤
  • 运行环境要求
    • Node.js 18 及以上
  • 安装与启动
    • 把仓库代码下载后,进入项目根目录
    • 安装依赖(若有 package.json,请执行 npm install)
    • 启动 MCP 服务器(示意入口之一)
      • 直接运行 MCP 服务器入口:node src/mcp-handoff.js
      • 或通过项目的 MCP 启动方式(根据具体部署方式,示例为在命令行以 MCP 模式启动)
  • 注意
    • MCP 服务需要本地数据源(如会话、模型、工具等数据源)的可用性,具体数据源的路径与访问方式见仓库的配置与 SETUP 文档。
  1. 服务器配置(JSON,给 MCP 客户端使用)
  • server name: ai-brain
  • command: node
  • args: ["src/mcp-handoff.js"]
  • 说明:该配置表示客户端通过 MCP 连接到本仓库的统一大脑服务器,使用 Node 启动,执行 mcp-handoff.js 以开启标准的 MCP 服务器实例。
  • 配置示例(描述性文本,非代码片段):
    • server_name: ai-brain
    • command: node
    • args: ["src/mcp-handoff.js"]
    • 注释:启动该命令后,服务器将以 MCP 标准对外提供 9 项工具并支持 JSON-RPC 调用。
  1. 基本使用方法(MCP 客户端交互简要)
  • 客户端通过 MCP 的标准接口发送 JSON-RPC 请求,调用工具(如 get_last_session_context 等)并获取响应。
  • 服务器会处理请求,返回对应的 JSON-RPC 响应,或在需要时发送通知(如 live 更新)。
  • 使用场景示例:
    • 请求获取最近会话的上下文,快速进行任务切换与续用。
    • 请求路由推荐,依据历史会话给出最优工具+模型组合。
    • 请求并渲染模型对比、 prompting 模板、项目统计等分析视图。
  • 连接与扩展性
    • MCP 支持多传输协议(如 stdio、SSE、WebSocket 等)。该实现以 stdio 形式暴露 MCP 服务,便于本地化调用。
  1. 关键词
  • 本地化协同、工具注册、JSON-RPC、上下文服务、提示模板、会话分析
  1. 分类ID
  • 6(AI 与计算)

服务器信息