VerifiMind-PEAS MCP Server
使用说明(Markdown格式)
-
项目简介 VerifiMind-PEAS MCP 服务器是一个完整的后端服务,依据 MCP(Model Context Protocol)标准与客户端通过 JSON-RPC 进行通信,核心职责是提供上下文资源、注册并执行工具,以及定义/渲染 Prompt 模板,以支持 LLM 客户端在统一平台上进行多模型验证和人机协作的上下文服务。
-
主要功能点
- 资源托管与数据访问:暴露并管理 Genesis Master Prompt、历史记录、当前状态等资源,便于 LLM 客户端获取上下文信息。
- 工具注册与执行:实现 consult_agent_x、consult_agent_z、consult_agent_cs、run_full_trinity 等工具,支持 X/Z/CS 三个 Agent 的协作评审工作流。
- Prompt 模板与模板库:提供统一的模板系统,支持模板导出、模板导入、模板自定义、以及版本/分类管理。
- MCP 协议实现与多传输支持:以 JSON-RPC 形式处理请求响应,提供 HTTP/Streamable-HTTP 传输,以及健康、配置等接口,适配云托管环境(如 GCP Cloud Run)。
- 会话管理与 BYOK 支持:实现会话上下文追踪、按调用按需带 Key 的 BYOK(带钥钥匙)能力,确保安全、可扩展的上下文服务。
- 安全与健壮性:内置输入 sanitization、错误处理、速率限制(Rate Limiting)、健康端点、日志与监控钩子,确保生产环境的稳健性。
- 文档与示例:包含详细的集成指南、快速开始、测试用例与用例文档,便于上手和扩展。
-
安装步骤(简要)
- 依赖要求:需要 Python3.x 环境,安装项目依赖后即可运行 MCP 服务器。
- 启动方式:使用内置的 HTTP/MCP 服务器入口,通过 FastMCP 构建的 HTTP 服务对外暴露,生产环境通常通过 HTTP 端口对外监听。推荐使用 uvicorn 之类的 ASGI 服务来托管 http_server 模块暴露的应用。
- 运行后端命令示例(命令将由具体运行环境决定,请按下方服务器配置执行)
- 通过 HTTP 传输提供 MCP 服务;端点包括 health、mcp、config、setup 等。
- 生产环境中建议将服务暴露在云负载均衡背后,并开启健康检查。
- 测试与验证
- 访问 health 接口,确认状态为 healthy。
- 使用 MCP 客户端(如 Claude/Cursor 等)连接至 /mcp/ 进行资源读取、工具调用和模板获取等操作。
-
服务器配置(MCP 客户端需要的最小信息) 配置以 JSON 格式给 MCP 客户端,包含服务器的名称、启动命令与参数等信息,用于在客户端建立连接并发起 MCP 请求。请根据实际部署环境填写具体可执行的启动命令与参数,示例描述如下:
- server name: verifimind-genesis
- command: uvicorn
- args: ["verifimind_mcp.http_server:app", "--host", "0.0.0.0", "--port", "8000"] 注释说明:
- 该配置指明服务器名称、运行启动程序及端口信息,客户端据此可将 MCP 请求发送到对应的服务端。
- MCP 客户端在连接时只需按照该地址与端口发送 JSON-RPC 请求即可,不需要浏览器访问。
- 配置中还可包含传输方式描述(如 streamable-http),以确保客户端与服务端传输协作的正确性。
- 生产环境中建议将端口映射到云负载均衡并开启防火墙策略,确保安全可控的访问。
-
基本使用方法
- 连接方式:通过 MCP 客户端向 /mcp/ 发送 JSON-RPC 请求,服务端返回 JSON-RPC 响应,或通过通知发送推送。
- 典型工作流:读取资源 → 调用工具进行分析 → 获取/渲染 Prompt 模板 → 根据 Trinity 结果进行报告与应用规格编排。
- 运行与监控:结合 Health、Health v2、SessionContext 跟踪等机制,确保会话 tracing、错误处理和监控都处于可观测状态。