项目简介
这是一个 MCP (Model Context Protocol) 服务器实现,专门用于与 HexagonML 模型管理 (ModelManager) 服务进行交互。它将 ModelManager 的功能通过标准化的 MCP 协议暴露给大型语言模型 (LLM) 客户端,使得 LLM 能够理解和操作与机器学习模型、用例相关的信息。
主要功能点
该服务器提供了一系列工具 (Tools),允许 LLM 客户端执行以下操作:
- 用例管理: 添加、更新、删除 HexagonML ModelManager 中的用例。
- 模型管理: 上传、删除、更新 HexagonML ModelManager 中的机器学习模型。
- 模型指标: 获取指定模型的最新评估指标。
- 用例数据: 获取并汇总 HexagonML ModelManager 中的所有用例数据。
- 因果图表: 获取模型的因果发现图表(如热力图、2D/3D 比较图)。
- 因果推断图表: 获取模型的因果推断图表(如系数图、效应图)。
- 因果关联: 获取模型的因果推断关联数据(如关联图表、关联摘要)。
安装步骤
要运行此 MCP 服务器,您通常需要:
- 克隆该 GitHub 仓库。
- 安装所需的 Python 依赖(通常在一个虚拟环境中)。
- 配置必要的环境变量,特别是用于连接 HexagonML ModelManager API 的 'SECRET_KEY' 和 'MM_API_BASE_URL'。如果需要保存图表文件,还需要设置 'OUTPUT_DIR' 环境变量指定保存路径。
- 根据您的环境(本地或 Docker)选择相应的启动方式。具体的运行命令可以在项目的 README 或相关脚本中找到。
服务器配置
MCP 服务器旨在由 MCP 客户端连接和使用。在 MCP 客户端中配置此服务器时,您需要提供以下信息:
- 服务器名称: 您为该服务器指定的一个唯一名称,例如 '"hex-mm-mcp"' 或 '"hex-mm-mcp-docker"'。
- 启动命令 (command): 启动 MCP 服务器进程的命令。
- 命令参数 (args): 传递给启动命令的参数。
- 环境变量 (env): 服务器运行所需的特定环境变量,例如连接 HexagonML ModelManager API 所需的密钥和 URL。
以下是基于仓库信息生成的客户端配置示例说明(请在您的 MCP 客户端配置中设置):
-
本地运行配置示例:
- 服务器名称: 例如 'hex-mm-mcp'
- 启动命令: 指向虚拟环境中 'mcp' 可执行文件的路径,例如 'hex-mm-mcp/.venv/bin/mcp'
- 命令参数: 启动服务器脚本的参数,例如 'run hex-mm-mcp/server/mm_mcp_server.py'
-
Docker 运行配置示例:
- 服务器名称: 例如 'hex-mm-mcp-docker'
- 启动命令: 'docker'
- 命令参数: 'run --rm -i --network=host -e SECRET_KEY -e MM_API_BASE_URL modelmanagerdev/mcp:v1' (这些参数告诉 Docker 以后台交互模式运行指定镜像,并传递必要的环境变量)
- 环境变量: 客户端需要提供的环境变量值,例如 'SECRET_KEY: your-secret-key' 和 'MM_API_BASE_URL: your-api-base-url'
用户无需直接执行这些命令,而是通过 MCP 客户端的界面或配置文件来间接启动和管理此服务器。
基本使用方法
一旦 MCP 服务器通过上述配置在 MCP 客户端中成功启动并连接,LLM 客户端就可以发现并调用服务器提供的工具。用户可以通过 MCP 客户端的界面(如果客户端提供了)或者通过 LLM 的工具调用能力来利用这些功能,例如让 LLM 调用 'add_model' 工具上传一个新模型,或者调用 'get_latest_metrics' 工具获取模型的性能数据。具体如何调用工具取决于您使用的 MCP 客户端的实现。
信息
分类
AI与计算