claude-code-multi-llm MCP 服务端

使用说明(简要要点,便于快速落地):

  • 项目简介

    • 这是一个基于 MCP(Model Context Protocol)的服务器端实现,提供资源/工具的托管、路由决策以及与 LLM 提供商的交互能力,面向 Claude Code 场景的多模型协作。服务器通过 JSON-RPC 形式与客户端通信,支持多种传输方式(如标准输入/输出、WebSocket 等),并实现会话管理与能力声明。
  • 主要功能点

    • MCP 服务端实现:处理来自 MCP 客户端的请求,返回 JSON-RPC 风格的响应与通知。
    • 资源与工具管理:注册、查询并执行资源、工具(如 ask、multi_ask、cost_report、list_models 等)。
    • 路由与成本感知:根据任务分类(BASIC/ STANDARD/ ADVANCED/ FRONTIER)进行模型选择,计算成本并给出节省估算。
    • 多提供商集成:支持 OpenAI、Google 等提供商,提供模型目录、对接与调用。
    • 日志与分析:对成本、调用、模型使用等进行日志记录,便于后续分析与分析报告生成。
    • 本地化部署:以本地进程形式运行,便于局部开发、调试与离线工作流。
  • 安装步骤

      1. 克隆仓库并进入目录
      1. 安装依赖并构建:npm install, npm run build
      1. 配置依赖密钥:配置环境变量 OPENAI_API_KEY 与 GOOGLE_API_KEY(如需对接对应提供商)
      1. 启动服务器(示例:node dist/index.js,或按项目实际打包路径启动)
      1. 配置客户端连接:将 MCP 客户端配置指向本服务器的启动命令与参数(见下方“服务器配置”示意)
  • 服务器配置(MCP 客户端需要的最小信息) 说明:以下是一个示例 JSON 结构,展示如何在客户端配置连接到该 MCP 服务器。实际使用时,请将路径与密钥替换为真实值。字段含义见注释,注释仅为说明用途,不在正式配置中出现。 { "mcpServers": { "multi-llm": { "command": "node", "args": ["/path/to/claude-code-multi-llm/dist/index.js"], "env": { "OPENAI_API_KEY": "sk-...", "GOOGLE_API_KEY": "AI..." } // 说明: // - mcpServers: 需要配置的 MCP 服务集合,服务名称可自定义,但建议与服务端识别名称保持一致(如 multi-llm)。 // - command: 启动服务器进程的命令,这里以 node 为例。 // - args: 启动参数,dist/index.js 为打包后的入口文件路径(实际路径请替换为本地路径)。 // - env: 环境变量,包含各提供商的 API 密钥等敏感信息。 } } }

  • 基本使用方法

    • 与 Claude Code 的集成通过 MCP 客户端配置完成后,客户端即可通过发送 MSP-MCP JSON-RPC 请求,触发相应的工具(如 ask、multi_ask、cost_report 等)并获取返回结果。
    • 使用 cost_report 等调试工具查看成本、模型分布等分析信息。
    • 根据需求,可通过 configure 工具调整默认 tier、偏好 provider、预算上限等参数。
  • 组合示例

    • 使用 ask( prompt ) 将子任务路由到成本最低且可用的模型,并返回结果及成本元数据。
    • 使用 cost_report 汇总当前会话的总成本、按模型/按工具的分布,以及潜在的节省比例。
  • 备注

    • 本实现包含对多提供商模型的注册、路由决策逻辑、以及用于分析和监控的成本日志。
    • 在实际生产中,请确保密钥安全、网络访问权限及正确的 dist 路径配置。

服务器信息