VerifiMind-PEAS MCP Server

使用说明(Markdown格式)

  • 项目简介 VerifiMind-PEAS MCP 服务器是一个完整的后端服务,依据 MCP(Model Context Protocol)标准与客户端通过 JSON-RPC 进行通信,核心职责是提供上下文资源、注册并执行工具,以及定义/渲染 Prompt 模板,以支持 LLM 客户端在统一平台上进行多模型验证和人机协作的上下文服务。

  • 主要功能点

    • 资源托管与数据访问:暴露并管理 Genesis Master Prompt、历史记录、当前状态等资源,便于 LLM 客户端获取上下文信息。
    • 工具注册与执行:实现 consult_agent_x、consult_agent_z、consult_agent_cs、run_full_trinity 等工具,支持 X/Z/CS 三个 Agent 的协作评审工作流。
    • Prompt 模板与模板库:提供统一的模板系统,支持模板导出、模板导入、模板自定义、以及版本/分类管理。
    • MCP 协议实现与多传输支持:以 JSON-RPC 形式处理请求响应,提供 HTTP/Streamable-HTTP 传输,以及健康、配置等接口,适配云托管环境(如 GCP Cloud Run)。
    • 会话管理与 BYOK 支持:实现会话上下文追踪、按调用按需带 Key 的 BYOK(带钥钥匙)能力,确保安全、可扩展的上下文服务。
    • 安全与健壮性:内置输入 sanitization、错误处理、速率限制(Rate Limiting)、健康端点、日志与监控钩子,确保生产环境的稳健性。
    • 文档与示例:包含详细的集成指南、快速开始、测试用例与用例文档,便于上手和扩展。
  • 安装步骤(简要)

    • 依赖要求:需要 Python3.x 环境,安装项目依赖后即可运行 MCP 服务器。
    • 启动方式:使用内置的 HTTP/MCP 服务器入口,通过 FastMCP 构建的 HTTP 服务对外暴露,生产环境通常通过 HTTP 端口对外监听。推荐使用 uvicorn 之类的 ASGI 服务来托管 http_server 模块暴露的应用。
    • 运行后端命令示例(命令将由具体运行环境决定,请按下方服务器配置执行)
      • 通过 HTTP 传输提供 MCP 服务;端点包括 health、mcp、config、setup 等。
      • 生产环境中建议将服务暴露在云负载均衡背后,并开启健康检查。
    • 测试与验证
      • 访问 health 接口,确认状态为 healthy。
      • 使用 MCP 客户端(如 Claude/Cursor 等)连接至 /mcp/ 进行资源读取、工具调用和模板获取等操作。
  • 服务器配置(MCP 客户端需要的最小信息) 配置以 JSON 格式给 MCP 客户端,包含服务器的名称、启动命令与参数等信息,用于在客户端建立连接并发起 MCP 请求。请根据实际部署环境填写具体可执行的启动命令与参数,示例描述如下:

    • server name: verifimind-genesis
    • command: uvicorn
    • args: ["verifimind_mcp.http_server:app", "--host", "0.0.0.0", "--port", "8000"] 注释说明:
    • 该配置指明服务器名称、运行启动程序及端口信息,客户端据此可将 MCP 请求发送到对应的服务端。
    • MCP 客户端在连接时只需按照该地址与端口发送 JSON-RPC 请求即可,不需要浏览器访问。
    • 配置中还可包含传输方式描述(如 streamable-http),以确保客户端与服务端传输协作的正确性。
    • 生产环境中建议将端口映射到云负载均衡并开启防火墙策略,确保安全可控的访问。
  • 基本使用方法

    • 连接方式:通过 MCP 客户端向 /mcp/ 发送 JSON-RPC 请求,服务端返回 JSON-RPC 响应,或通过通知发送推送。
    • 典型工作流:读取资源 → 调用工具进行分析 → 获取/渲染 Prompt 模板 → 根据 Trinity 结果进行报告与应用规格编排。
    • 运行与监控:结合 Health、Health v2、SessionContext 跟踪等机制,确保会话 tracing、错误处理和监控都处于可观测状态。

服务器信息