GlassBox AI MCP 服务器

使用说明

  • 项目简介 GlassBox AI MCP 服务器实现了一个基于 MCP 的后端服务,核心功能包括并行执行的多代理协作、信任分数持久化、以及多轮辩论后对结果的生成与评估。服务器通过标准的 MCP 接口暴露工具(如 analyze、debate、trust_scores、update_trust),供 MCP 客户端调用,并通过 JSON-RPC 进行通信。
  • 主要功能点
    • MCP 工具:提供分析、辩论、信任查询与更新等接口,支持客户端对话与协作。
    • 资源与工具整合:通过内部的 orchestrator 与 TrustDB 持久化,管理代理信任、并发执行与结果汇总。
    • 3 个代理角色与多轮辩论:architect、pragmatist、critic,进行 3 轮对话并由 LLM 评审判断信任变化。
    • 持久化与可观测性:信任分数使用 SQLite,含统计与越界保护。
    • 传输与部署友好:支持 stdio 传输用于开发/测试场景,亦可扩展为 WebSocket/SSE 等传输协议。
  • 安装与运行
    • 运行前提:Python 3.10+,OpenAI API Key。项目内置多代理编排与 MCP 服务端实现。
    • 启动方式:在具备 OpenAI Key 的环境中直接运行主服务,以 MCP 标准接口对接客户端。
  • 服务器配置(JSON 形式,供 MCP 客户端读取配置,用于与 MCP 服务建立连接) 下面给出一个示例配置,该配置描述了 MCP 客户端如何发现并连接 GlassBox AI 服务器。请将其中的值替换为实际部署信息: { "server_name": "GlassBox AI", "command": "glassbox-ai", "args": [], "description": "MCP 服务器:GlassBox AI 多代理信任与辩论后端", "env": { "OPENAI_API_KEY": "<YOUR_OPENAI_API_KEY>" } /* 说明: - server_name: MCP 客户端在 UI/日志中显示的服务器名称。 - command: 启动服务器的命令,若已安装为可执行包,请设置为该执行文件名或可执行入口。 - args: 启动参数(若需,按实际环境填入,如工作目录、配置路径等)。 - description: 较短的服务器描述,便于在客户端列表中识别。 - env: 运行时所需的环境变量,这里建议设置 OPENAI_API_KEY。 */ }
  • 基本使用方法
    • 启动后,服务器将监听 MCP 客户端请求,客户端通过 JSON-RPC 调用分析、辩论、信任查询与更新等接口来获取/提交信息。
    • 开发/调试阶段可使用 STDIO 传输进行交互,生产环境可扩展为 WebSocket/SSE 等传输方式。
    • 通过信任分数和辩论结果,LLM 客户端可以获得对话上下文、工具输出以及提示模板的渲染结果,以实现更可控的对话管线。

服务器信息