使用说明

项目简介

W&B Weave MCP Server 是一个基于 Model Context Protocol (MCP) 构建的服务器,专门用于连接大型语言模型 (LLM) 客户端和 Weights & Biases (W&B) 平台。它允许 LLM 通过标准化的 MCP 协议,安全地访问和查询 W&B Weave 追踪数据,并将分析结果保存为 W&B 报告,从而增强 LLM 在数据分析和实验跟踪方面的能力。

主要功能点

  • 查询 Weave 追踪数据: 提供强大的工具来查询 W&B Weave 中记录的实验追踪数据,支持灵活的过滤、排序和分页选项,可以返回完整的追踪数据或仅返回元数据,以适应 LLM 的上下文窗口限制。
  • 高效计数追踪数据: 提供工具快速统计符合特定条件的 Weave 追踪数量,无需返回实际数据,帮助用户在查询大量数据前预估项目规模。
  • 创建 W&B 报告: 允许 LLM 创建包含 Markdown 文本和 HTML 可视化图表的 W&B 报告,方便用户保存和分享分析结果和图表。
  • 工具集成: 内置 'query_weave_traces_tool', 'count_weave_traces_tool', 'create_wandb_report_tool' 等工具,方便 LLM 调用以执行数据查询和报告生成任务。
  • 易于配置和安装: 提供简单的安装和配置步骤,支持通过环境变量或 .env 文件配置 W&B API 密钥。
  • 兼容 MCP 客户端: 遵循 MCP 协议标准,可以与任何兼容 MCP 协议的客户端(如 Claude Desktop)集成。

安装步骤

  1. 安装 uv: 如果尚未安装 'uv',请根据官方指南安装:

    curl -LsSf https://astral.sh/uv/install.sh | sh

    如果安装后 'uv' 命令仍然无法找到,请创建符号链接:

    sudo ln -s ~/.local/bin/uv /usr/local/bin/uv
  2. 克隆仓库: 将 'mcp-server' 仓库克隆到本地。

  3. 创建虚拟环境: 在仓库根目录下创建 Python 虚拟环境:

    uv venv
  4. 激活虚拟环境: 激活虚拟环境:

    source .venv/bin/activate
  5. 安装项目依赖: 安装项目自身:

    uv pip install -e .

服务器配置

MCP 客户端(例如 Claude Desktop)需要配置 MCP 服务器的启动命令和参数才能连接。以下是 Claude Desktop 的配置示例,请根据实际情况修改路径:

{
    "mcpServers": {
        "weights_and_biases": {
        "command": "uv",
        "args": [
            "--directory",
            "/ABSOLUTE/PATH/TO/PROJECT",  // 将 "/ABSOLUTE/PATH/TO/PROJECT" 替换为 mcp-server 仓库的绝对路径
            "run",
            "src/mcp_server/server.py"
        ]
        }
    }
}

配置说明:

  • '"weights_and_biases"': 服务器名称,可以自定义。
  • '"command": "uv"': 启动服务器的命令,这里使用 'uv run'。
  • '"args"': 启动命令的参数列表:
    • '"--directory", "/ABSOLUTE/PATH/TO/PROJECT"': 指定项目根目录,必须替换为实际仓库的绝对路径
    • '"run", "src/mcp_server/server.py"': 运行 'src/mcp_server/server.py' 文件,启动 MCP 服务器。

W&B API 密钥配置:

  1. 在仓库根目录下创建 '.env' 文件。
  2. 在 '.env' 文件中添加 W&B API 密钥:
    WANDB_API_KEY=your_api_key_here  # 将 "your_api_key_here" 替换为你的 W&B API 密钥

基本使用方法

  1. 启动 MCP 服务器: 在激活的虚拟环境中,运行以下命令启动服务器:

    uv run src/mcp_server/server.py

    服务器成功启动后,会监听 MCP 客户端的请求。

  2. 配置 MCP 客户端: 根据 MCP 客户端的配置方法,添加上面提供的服务器配置信息。确保客户端能够连接到运行中的 MCP 服务器。

  3. 在 LLM 中使用工具: 在 LLM 客户端中,可以使用自然语言指令调用 MCP 服务器提供的工具。例如,在 Claude Desktop 中,可以这样提问:

    how many openai.chat traces in the wandb-applied-ai-team/mcp-tests weave project? plot the most recent 5 traces over time and save to a report

    LLM 客户端会将该指令转换为对 MCP 服务器工具的调用,服务器会执行相应的操作并返回结果给客户端。

注意: 请确保在 LLM 指令中明确指定 W&B Entity 和 Project 信息,以便服务器能够正确查询数据。

信息

分类

开发者工具