Auto Claude MCP Server

使用说明

  • 项目简介

    • 本仓库实现一个完整的 MCP 服务器端,可以通过 MCP 客户端与之进行资源、工具、提示模板等的注册、读取和执行等交互,支持多提供商的上下文桥接,以及通过 stdio 传输的 MCP 服务。
    • 服务器端还集成了资源与上下文的存储、任务/工作流管理、以及一个基于多模型的协作/评审流程(Mesh/Loop),面向 LLM 场景提供安全、可扩展的上下文服务框架。
  • 主要功能点

    • MCP 服务器核心:实现基于 MCP 的请求处理、工具注册与调用、以及跨服务的上下文管理,采用 JSON-RPC 机制进行通信。
    • 资源与上下文存储:提供 Context Store、Chunk、Session 等结构,支持跨会话的上下文持久化、检索、排序、以及跨会话的协作数据共享。
    • 工具注册与调用:实现对多家 LLM 提供商的工具化访问(如 openai-compatible、gemini 等),以及对工具的注册、参数解析、调用和结果返回。
    • Prompts 定义与渲染:内置系统提示、角色扮演提示和跨上下文块注入,支持多模型协作时的上下文合成。
    • Mesh/多模型协作(Mesh/Loop):支持对模型的对抗性评审、共识检测、以及多轮对话的汇总报告,提供对外部提供商的并发/对抗性评审能力。
    • 跨传输与兼容性:核心服务器通过 stdio 传输实现 MCP 通信,便于与 Claude Code、MCP 客户端等集成,且具备可扩展的网路化传输与监控能力。
  • 安装步骤

    1. 安装前置依赖
      • 安装 curl、jq、Go(Go 运行环境)
    2. 安装与配置
      • 运行 prereqs 脚本安装系统依赖
      • 运行 setup 脚本安装 Claude Code、MCP 桥接组件及默认配置
    3. 启动 MCP 服务器
      • 通过 claude-fw 提供的 serve 命令启动 MCP 服务器,配置提供商、数据库路径等
    4. 运行后端服务
      • 服务器启动后,会在标准输入/输出上进行 MCP 的 JSON-RPC 通信,确保客户端能够连接并执行上下文读取/工具调用/Prompts 获取等操作
    5. 运行更新与维护
      • 根据需要执行更新脚本以更新技能、Hook、MCP 桥接二进制文件等,保证本地配置与服务同步
  • 服务器配置(MCP 客户端要连接该 MCP 服务器时需要的配置示例) 说明:以下配置信息用于 MCP 客户端连接到本仓库实现的 MCP 服务器。字段含义说明在注释中给出,实际使用时请按客户端文档组装 JSON 配置。 { "server_name": "mcp-bridge", "command": "claude-fw", "args": [ "serve", "--config", "~/.claude/mcp-bridge/providers.json", "--db", "~/.claude/state.db", "--loop", "true", "--board-port", "19280", "--risk-rules", "~/.claude/risk-rules.yaml", "--projects", "~/.claude/loop-projects.yaml" ] }

    • server_name: MCP 服务器在客户端端的标识名称,建议与实际部署的一致以便追踪
    • command: 启动 MCP 服务器的可执行程序名称(在本仓库的实现中,核心服务器由 claude-fw 提供并以 serve 模式运行)
    • args: 启动参数,包含配置文件路径、数据库路径、是否启用循环/网格等高级特性及其选项(如 risk-rules、projects 等),便于 MCP 客户端在连接时加载所需配置
    • 说明:该配置用于 MCP 客户端在启动阶段创建与 MCP 服务器的连接通道,客户端无需了解内部实现细节,仅需知道 server_name、启动命令和参数即可建立连接。
  • 基本使用方法

    • 启动服务器
      • 根据仓库提供的安装脚本,完成 prerequisites 与 setup,随后以 claude-fw serve 启动服务器。
    • 连接与调用
      • 使用 MCP 客户端(Claude Code 等)通过 MCP 的 JSON-RPC 方式向服务器发送请求,例如读取资源、调用工具、获取 Prompts、执行 Mesh 等。
    • 运行与监控
      • 服务器提供多种工具与任务机制,支持资源、上下文、任务队列的管理,以及 Mesh 的对话与评审流程,运行期间可通过日志与看板(Board/Kanban)监控状态。
    • 配置与扩展
      • 提供了提供商配置、上下文存储、任务引擎、网格工具等模块,可以按需增加新的提供商、工具或扩展网格策略。
  • 适用场景

    • 需要将 LLM 客户端接入到一个统一的 MCP 桥接后端,进行资源管理、工具调用、提示模板渲染、以及多模型协作评审的企业级或研究场景。
  • 关键词 LLM 上下文服务, 上下文存储, 多模型协作, 工具注册与调用, JSON-RPC 服务

  • 分类 6

服务器信息