DREDGE Quasimoto MCP 服务器(Quasimoto 波函数与字符串理论集成)
使用说明
- 项目简介
- 该仓库实现了一个基于 MCP(Model Context Protocol)的后端服务器,核心功能包括:
- 托管和管理 多种模型资源(如 quasimoto 1D/4D/6D 波函数、ensemble、以及字符串理论神经网络)
- 注册和执行 Tools/Operations(如 load_model、inference、get_parameters、benchmark、string_spectrum、string_parameters、unified_inference 等)
- 提供统一的 MCP 端点 /mcp,以 JSON-RPC 风格的请求格式进行交互
- 支持会话管理、能力声明,以及与缓存、度量、依赖管理等特性集成
- 该仓库实现了一个基于 MCP(Model Context Protocol)的后端服务器,核心功能包括:
- 主要功能点
- 模型加载与管理:支持 quasimoto_1d、quasimoto_4d、quasimoto_6d、quasimoto_ensemble、string_theory 等模型的加载、配置与设备绑定
- 推理与参数查询:支持对已加载模型的推理、获取参数、查询模型信息
- 统一推理与字符串理论相关操作:string_spectrum、string_parameters、unified_inference
- Dependabot 集成:获取/解释/更新 Dependabot 警报(需 GITHUB_TOKEN)
- 监控与缓存:可选开启 Metrics、Cache,提供缓存统计与性能数据
- MCP 客户端对接:提供 create_mcp_app(...) 快速创建可测试的 MCP Flask 应用,以及 /mcp 端点进行操作
- 安装步骤
- 安装依赖后在仓库根目录运行:安装、构建、以及运行 MCP 服务
- 运行示例(其中任意一种均可):
- 使用 Python 入口启动 MCP 服务器:
- 运行命令:python -m dredge mcp
- 或:dredge-cli mcp --host 0.0.0.0 --port 3002 --debug
- 使用 Python 入口启动 MCP 服务器:
- 运行后,MCP 服务器在端口 3002 上对外提供 /mcp 端点,以及能力自述根端点
- 服务器配置(MCP 客户端不可见/无需部署,给 MCP 客户端使用的配置信息示例)
- MCP 客户端配置需要指明要连接的 MCP 服务器信息以及启动命令,通常包含服务器名称、启动命令及启动参数等,用于 MCP 客户端自动化连接与控制。以下为符合仓库信息的示范配置要点(不含具体代码):
- server_name: "DREDGE Quasimoto MCP Server"
- command: "dredge-cli" 或 "python -m dredge mcp"
- args: [ "--host", "0.0.0.0", "--port", "3002", "--debug" ]
- 配置注释要点
- server_name 用于标识要连接的 MCP 服务实例
- command/args 指定如何启动 MCP 服务(本客户端配置仅用于引导启动,不需要包含在实际请求体中)
- 客户端在建立连接时会使用这些信息调用 /mcp 端点,发送 JSON 请求体,包含 operation、params 等字段
- MCP 客户端配置需要指明要连接的 MCP 服务器信息以及启动命令,通常包含服务器名称、启动命令及启动参数等,用于 MCP 客户端自动化连接与控制。以下为符合仓库信息的示范配置要点(不含具体代码):
- 基本使用方法
- 启动 MCP 服务器后,客户端向 /mcp 端点发送 JSON 请求,例如:
- 请求格式:{"operation": "list_capabilities", "params": {}}
- 请求格式:{"operation": "load_model", "params": {"model_type": "quasimoto_1d"}}
- 请求格式:{"operation": "inference", "params": {"model_id": "quasimoto_1d_0", "inputs": {"x": [0.5], "t": [0.0]}}}
- 客户端示例工作流(概念性描述)
-
- 通过 load_model 载入需要的模型(如 quasimoto_1d、string_theory 等)
-
- 使用 inference 调用已加载模型,提供输入数据
-
- 使用 get_parameters 或 benchmark 获取模型元信息与性能数据
-
- 若需要,使用 string_spectrum、string_parameters、unified_inference 进行字符串理论相关推理
-
- 注意
- MCP 端点使用 JSON 请求格式,请求体中包含 operation 与 params 字段
- 在启用 Dependabot 功能时,需设置 GITHUB_TOKEN 环境变量
- 启动 MCP 服务器后,客户端向 /mcp 端点发送 JSON 请求,例如: