使用说明(Markdown格式)
-
项目简介
- 本仓库实现了一个基于 MCP 的服务器端,整合 Gemini CLI、Claude Code、OpenRouter 等模型提供者,向 LLM 客户端以统一的 JSON-RPC 方式提供“资源管理、工具注册与执行、以及 Prompt 模板渲染”的能力。服务器核心职责包括对资源的托管与访问、工具注册与执行、以及提示模板的渲染与管理,支持会话管理、能力声明和多传输协议(如 Stdio)的交互。
-
主要功能点
- MCP 服务器端实现:暴露 ListTools、CallTool、以及相关工具的处理逻辑,通过 MCP JSON-RPC 与客户端通信。
- 多模型协作与执行:集成 Gemini CLI、Claude Code、OpenRouter 等模型,支持自动路由、 supervisor(Claude 监督)以及读取大规模上下文的能力。
- 工具库(Tools):提供多类工具,例如研究、代码 Draft/Review、AI 协作、OpenRouter 访问、会话管理等,总计几十种工具,面向 LLM 客户端进行统一调用。
- 资源与会话管理:包含会话状态、成本统计、令牌计数、缓存等机制,确保长时间对话中的上下文管理与成本控制。
- 安全与稳健性:对输入路径进行严格的安全检查,使用安全的进程启动(safeSpawn)、路径校验、 glob/Pattern 的防护等,降低潜在风险。
-
安装与运行
- 依赖安装:npm install(在项目根目录执行)。
- 启动 MCP 服务器:
- 建议方案1(推荐,配合 README 的指引):npm run mcp
- 方案2(直接运行,便于测试):node src/mcp/gemini-mcp-server.js
- 服务器注册与集成:服务器提供的 Open Claude/Claude Code 集成设施可通过命令行进行注册,具体路径与参数可参考 bin/mcp-install 脚本所述流程。
- 验证运行状态:启动后服务器会对外暴露 MCP 服务,客户端通过 JSON-RPC 调用进行交互。
-
服务器配置(JSON,请据实际部署环境填写) 说明:以下配置用于 MCP 客户端建立与服务器的连接。serverName 对应 MCP 服务器在 Claude/客户端侧的标识,command 与 args 指定启动命令及参数。MCP 客户端不需要在此处严格实现,只需了解如何将服务器正确接入即可。
{ "serverName": "gemini-worker", "command": "node", "args": ["/path/to/Hybrid-CLI-Agent/src/mcp/gemini-mcp-server.js"], "cwd": "/path/to/Hybrid-CLI-Agent", "description": "Gemini Worker MCP Server 提供的工具与能力(ListTools、CallTool、OpenRouter、Claude 监督等)", "notes": "请在客户端配置中替换为实际部署路径与执行命令,确保环境变量(如 GEMINI_API_KEY、OPENROUTER_API_KEY、VERTEX_API_KEY)在服务器运行环境可用。" }
-
基本使用方法
- 客户端通过 MCP 协议向服务器发送 JSON-RPC 请求,服务器根据请求类型调用相应的工具实现,返回 JSON-RPC 响应或通知。
- MCP 服务器支持会话管理、能力声明、以及多模态协作模式,便于 LLM 应用在不同场景下获取资源、执行工具、渲染 Prompt 模板并获得结果。
- 运行后即可通过客户端进行资源读取、工具调用以及获取提示模板等操作,实际使用以 MCP 客户端和服务器端的约定为准。
信息
分类
AI与计算