项目简介

这是一个 MCP (Model Context Protocol) 服务器实现,专门用于与 HexagonML 模型管理 (ModelManager) 服务进行交互。它将 ModelManager 的功能通过标准化的 MCP 协议暴露给大型语言模型 (LLM) 客户端,使得 LLM 能够理解和操作与机器学习模型、用例相关的信息。

主要功能点

该服务器提供了一系列工具 (Tools),允许 LLM 客户端执行以下操作:

  • 用例管理: 添加、更新、删除 HexagonML ModelManager 中的用例。
  • 模型管理: 上传、删除、更新 HexagonML ModelManager 中的机器学习模型。
  • 模型指标: 获取指定模型的最新评估指标。
  • 用例数据: 获取并汇总 HexagonML ModelManager 中的所有用例数据。
  • 因果图表: 获取模型的因果发现图表(如热力图、2D/3D 比较图)。
  • 因果推断图表: 获取模型的因果推断图表(如系数图、效应图)。
  • 因果关联: 获取模型的因果推断关联数据(如关联图表、关联摘要)。

安装步骤

要运行此 MCP 服务器,您通常需要:

  1. 克隆该 GitHub 仓库。
  2. 安装所需的 Python 依赖(通常在一个虚拟环境中)。
  3. 配置必要的环境变量,特别是用于连接 HexagonML ModelManager API 的 'SECRET_KEY' 和 'MM_API_BASE_URL'。如果需要保存图表文件,还需要设置 'OUTPUT_DIR' 环境变量指定保存路径。
  4. 根据您的环境(本地或 Docker)选择相应的启动方式。具体的运行命令可以在项目的 README 或相关脚本中找到。

服务器配置

MCP 服务器旨在由 MCP 客户端连接和使用。在 MCP 客户端中配置此服务器时,您需要提供以下信息:

  • 服务器名称: 您为该服务器指定的一个唯一名称,例如 '"hex-mm-mcp"' 或 '"hex-mm-mcp-docker"'。
  • 启动命令 (command): 启动 MCP 服务器进程的命令。
  • 命令参数 (args): 传递给启动命令的参数。
  • 环境变量 (env): 服务器运行所需的特定环境变量,例如连接 HexagonML ModelManager API 所需的密钥和 URL。

以下是基于仓库信息生成的客户端配置示例说明(请在您的 MCP 客户端配置中设置):

  • 本地运行配置示例:

    • 服务器名称: 例如 'hex-mm-mcp'
    • 启动命令: 指向虚拟环境中 'mcp' 可执行文件的路径,例如 'hex-mm-mcp/.venv/bin/mcp'
    • 命令参数: 启动服务器脚本的参数,例如 'run hex-mm-mcp/server/mm_mcp_server.py'
  • Docker 运行配置示例:

    • 服务器名称: 例如 'hex-mm-mcp-docker'
    • 启动命令: 'docker'
    • 命令参数: 'run --rm -i --network=host -e SECRET_KEY -e MM_API_BASE_URL modelmanagerdev/mcp:v1' (这些参数告诉 Docker 以后台交互模式运行指定镜像,并传递必要的环境变量)
    • 环境变量: 客户端需要提供的环境变量值,例如 'SECRET_KEY: your-secret-key' 和 'MM_API_BASE_URL: your-api-base-url'

用户无需直接执行这些命令,而是通过 MCP 客户端的界面或配置文件来间接启动和管理此服务器。

基本使用方法

一旦 MCP 服务器通过上述配置在 MCP 客户端中成功启动并连接,LLM 客户端就可以发现并调用服务器提供的工具。用户可以通过 MCP 客户端的界面(如果客户端提供了)或者通过 LLM 的工具调用能力来利用这些功能,例如让 LLM 调用 'add_model' 工具上传一个新模型,或者调用 'get_latest_metrics' 工具获取模型的性能数据。具体如何调用工具取决于您使用的 MCP 客户端的实现。

信息

分类

AI与计算