Smart AI Bridge MCP 服务端
使用说明(Markdown 格式)
- 项目简介
- Smart AI Bridge 是一个基于 MCP 的后端服务端实现,旨在为 LLM 客户端提供统一的上下文服务,包括资源、工具、以及可渲染的 Prompt 模板,辅以智能路由、Council 委员会式并发评审等能力,提升多后端协作的可控性和安全性。
- 主要功能点
- 资源与数据访问:集中托管与管理 Resources,支持对数据的读取、写入和修改。
- 工具注册与执行:注册多种 Tools,LLM 可以通过 MCP 调用外部功能实现任务自动化。
- Prompt 模板定义与渲染:提供可配置的 Prompt 模板,支持可定制的 LLM 交互模式。
- JSON-RPC 通信:服务器通过标准的 JSON-RPC 接收请求并返回响应。
- 会话管理与能力声明:支持会话、能力声明、健康检查等能力描述,确保安全可靠的上下文服务。
- 多传输协议支持:支持 Stdio、SSE、WebSocket 等传输协议的接入。
- 路由和 Council 系统:4 层路由(强制后端、学习型推荐、规则/基于任务的路由、健康回退),Council 系统实现同一提示在多后端的并行/顺序/辩论等策略,提升回答质量与鲁棒性。
- dashboard(仪表盘)与扩展性:可选的 Web 仪表盘用于后端管理、Council 配置及健康诊断。
- 安装与运行
- 步骤一:安装依赖
- npm install
- 步骤二:启动服务
- node src/server.js
- 步骤三:配置后端提供者与 Claude Code 集成(MCP 客户端侧配置请参阅下方“服务器配置”描述)
- 提示:仓库中包含默认后端配置、工具定义及 MCP 相关示例,实际生产请结合你的后端密钥和模型选择进行配置。
- 服务器配置(MCP 客户端示例信息,需由 MCP 客户端配置连接服务器)
- 服务器名称:smart-ai-bridge
- command: node
- args: [ "src/server.js" ]
- cwd: 项目根目录
- env(示例占位,请按实际密钥替换):
- NVIDIA_API_KEY: "<your-nvidia-key>"
- OPENAI_API_KEY: "<your-openai-key>"
- GEMINI_API_KEY: "<your-gemini-key>"
- GROQ_API_KEY: "<your-groq-key>"
- 注释要点:
- 以上信息用于 MCP 客户端将该服务器注册到 Claude Code 中,确保在 Claude Code 中以 MCP 服务器形式启动并可被调用。
- 不要把真实密钥提交到版本控制,实际部署中通过环境变量注入。
- 基本使用方法
- 调用入口:通过 MCP 客户端向服务器发送 MCP 的 JSON-RPC 请求,例如 ListTools 请求获取工具列表、CallTool 请求执行特定工具等。
- 典型工作流:配置好后,LLM 客户端可通过 Smart AI Bridge 提供的 19 种工具、资源和 prompts,结合 Council 策略实现多后端协作与结果聚合。
- 监控与维护:可启用仪表盘查看后端健康、路由决策、 council 策略等,定期进行健康检查与容量扩展。
- 注意事项
- 安全性:请妥善管理 API Key、密钥等配置,避免直接在代码中硬编码。
- 兼容性:确保后端提供者与模型能通过 MCP 的 JSON-RPC 进行交互,CLAUDE Code/Desktop 集成时按 MCP 标准传输。
- 部署建议:在生产环境中开启 Dashboard 持续监控,合理设置健康检查与回退策略。
- 其他
- 技术栈要点:Node.js >= 18、MCP 相关依赖、后端适配器、路由与 Council 策略、健康诊断与仪表盘。
- 运行环境要求:需要可用的本地或云后端(本仓库提供多个后端适配)及 Claude 系统对接。
6-1) 关键词 多后端编排、资源与工具管理、提示模板渲染、JSON-RPC 通信、会话与仪表盘
6-2) 分类ID 6