DREDGE Quasimoto MCP 服务器(Quasimoto 波函数与字符串理论集成)

使用说明

  • 项目简介
    • 该仓库实现了一个基于 MCP(Model Context Protocol)的后端服务器,核心功能包括:
      • 托管和管理 多种模型资源(如 quasimoto 1D/4D/6D 波函数、ensemble、以及字符串理论神经网络)
      • 注册和执行 Tools/Operations(如 load_model、inference、get_parameters、benchmark、string_spectrum、string_parameters、unified_inference 等)
      • 提供统一的 MCP 端点 /mcp,以 JSON-RPC 风格的请求格式进行交互
      • 支持会话管理、能力声明,以及与缓存、度量、依赖管理等特性集成
  • 主要功能点
    • 模型加载与管理:支持 quasimoto_1d、quasimoto_4d、quasimoto_6d、quasimoto_ensemble、string_theory 等模型的加载、配置与设备绑定
    • 推理与参数查询:支持对已加载模型的推理、获取参数、查询模型信息
    • 统一推理与字符串理论相关操作:string_spectrum、string_parameters、unified_inference
    • Dependabot 集成:获取/解释/更新 Dependabot 警报(需 GITHUB_TOKEN)
    • 监控与缓存:可选开启 Metrics、Cache,提供缓存统计与性能数据
    • MCP 客户端对接:提供 create_mcp_app(...) 快速创建可测试的 MCP Flask 应用,以及 /mcp 端点进行操作
  • 安装步骤
    • 安装依赖后在仓库根目录运行:安装、构建、以及运行 MCP 服务
    • 运行示例(其中任意一种均可):
      • 使用 Python 入口启动 MCP 服务器:
        • 运行命令:python -m dredge mcp
        • 或:dredge-cli mcp --host 0.0.0.0 --port 3002 --debug
    • 运行后,MCP 服务器在端口 3002 上对外提供 /mcp 端点,以及能力自述根端点
  • 服务器配置(MCP 客户端不可见/无需部署,给 MCP 客户端使用的配置信息示例)
    • MCP 客户端配置需要指明要连接的 MCP 服务器信息以及启动命令,通常包含服务器名称、启动命令及启动参数等,用于 MCP 客户端自动化连接与控制。以下为符合仓库信息的示范配置要点(不含具体代码):
      • server_name: "DREDGE Quasimoto MCP Server"
      • command: "dredge-cli" 或 "python -m dredge mcp"
      • args: [ "--host", "0.0.0.0", "--port", "3002", "--debug" ]
    • 配置注释要点
      • server_name 用于标识要连接的 MCP 服务实例
      • command/args 指定如何启动 MCP 服务(本客户端配置仅用于引导启动,不需要包含在实际请求体中)
      • 客户端在建立连接时会使用这些信息调用 /mcp 端点,发送 JSON 请求体,包含 operation、params 等字段
  • 基本使用方法
    • 启动 MCP 服务器后,客户端向 /mcp 端点发送 JSON 请求,例如:
      • 请求格式:{"operation": "list_capabilities", "params": {}}
      • 请求格式:{"operation": "load_model", "params": {"model_type": "quasimoto_1d"}}
      • 请求格式:{"operation": "inference", "params": {"model_id": "quasimoto_1d_0", "inputs": {"x": [0.5], "t": [0.0]}}}
    • 客户端示例工作流(概念性描述)
        1. 通过 load_model 载入需要的模型(如 quasimoto_1d、string_theory 等)
        1. 使用 inference 调用已加载模型,提供输入数据
        1. 使用 get_parameters 或 benchmark 获取模型元信息与性能数据
        1. 若需要,使用 string_spectrum、string_parameters、unified_inference 进行字符串理论相关推理
    • 注意
      • MCP 端点使用 JSON 请求格式,请求体中包含 operation 与 params 字段
      • 在启用 Dependabot 功能时,需设置 GITHUB_TOKEN 环境变量

服务器信息