使用说明

项目简介

本项目是一个基于 Model Context Protocol (MCP) 构建的服务器,旨在帮助用户轻松地交叉验证来自不同大型语言模型 (LLM) 提供商的回复。它通过集成多个流行的 LLM API(如 OpenAI, Anthropic, Perplexity, Google Gemini),并提供一个统一的接口,使得用户可以通过 Claude Desktop 等 MCP 客户端,向多个 LLM 同时发送相同的 Prompt,并获取各自的回复结果,从而进行对比分析。

主要功能点

  • 并行查询多LLM: 支持同时向多个配置的 LLM 提供商发送查询请求,显著提升效率。
  • 支持多种主流LLM: 目前已集成 OpenAI (ChatGPT), Anthropic (Claude), Perplexity AI, 和 Google (Gemini) 的 API。
  • 异步并行处理: 采用异步编程实现并行请求处理,加速响应速度。
  • 易于集成 Claude Desktop: 设计为 MCP 服务器,可以无缝集成到 Claude Desktop 等 MCP 客户端中使用。
  • 灵活配置: 允许用户根据需要配置要使用的 LLM 提供商,只需配置相应的 API 密钥。

安装步骤

  1. 克隆仓库:

    git clone https://github.com/lior-ps/multi-llm-cross-check-mcp-server.git
    cd multi-llm-cross-check-mcp-server
  2. 初始化 uv 虚拟环境并安装依赖:

    uv venv
    uv pip install -r requirements.txt

    注意: 'uv' 是一个快速的 Python 包管理器,如果未安装,请先使用 'pip install uv' 安装。

服务器配置

要将此 MCP 服务器配置到 Claude Desktop 中,您需要在 Claude Desktop 的配置目录中创建一个名为 'claude_desktop_config.json' 的文件,并填入以下内容:

{
  "mcp_servers": [
    {
      "command": "uv",
      "args": [
        "--directory",
        "/multi-llm-cross-check-mcp-server",
        "run",
        "main.py"
      ],
      "env": {
        "OPENAI_API_KEY": "your_openai_key",  // 从 OpenAI 官网获取 API 密钥
        "ANTHROPIC_API_KEY": "your_anthropic_key",  // 从 Anthropic 官网获取 API 密钥
        "PERPLEXITY_API_KEY": "your_perplexity_key",  // 从 Perplexity AI 官网获取 API 密钥
        "GEMINI_API_KEY": "your_gemini_key"   // 从 Google AI Studio 获取 API 密钥
      }
    }
  ]
}

配置说明:

  • 'command': 指定启动服务器的命令,这里使用 'uv' 包管理器。
  • 'args': 命令的参数,
    • '--directory "/multi-llm-cross-check-mcp-server"': 指定项目目录,请替换为您的实际仓库路径。
    • '"run"': 'uv run' 命令用于运行 Python 脚本。
    • '"main.py"': 指定要运行的服务器主程序文件。
  • 'env': 设置环境变量,用于配置各个 LLM 提供商的 API 密钥。
    • 'OPENAI_API_KEY', 'ANTHROPIC_API_KEY', 'PERPLEXITY_API_KEY', 'GEMINI_API_KEY': 请替换为您的实际 API 密钥。如果您不使用某个 LLM,可以不填写对应的 API 密钥,服务器会自动跳过该提供商。

注意:

  • 请确保将 '/multi-llm-cross-check-mcp-server' 替换为您本地仓库的实际绝对路径。
  • 您只需要配置您想要使用的 LLM 提供商的 API 密钥。
  • 如果 'uv' 命令无法直接使用,您可能需要指定 'uv' 可执行文件的完整路径。可以使用 'which uv' (MacOS/Linux) 或 'where uv' (Windows) 命令查找 'uv' 的路径。

基本使用方法

  1. 启动服务器: 当您打开配置了 MCP 服务器的 Claude Desktop 客户端时,服务器将自动启动。

  2. 使用 'cross_check' 工具: 在 Claude Desktop 的对话中,您可以指示 Claude Desktop 使用 'cross_check' 工具来进行多 LLM 交叉验证。例如,您可以这样提问:

    "请使用 cross_check 工具,对比一下 '如何评价 ChatGPT-4o?' 在不同 LLM 中的回答。"

    或者更直接地:

    "cross_check 请分析 '未来十年人工智能发展趋势'。"

  3. 查看结果: 服务器会将来自不同 LLM 的回复以 JSON 格式返回给 Claude Desktop,您可以在 Claude Desktop 中查看和比较这些回复。返回的 JSON 格式如下:

    {
        "ChatGPT": { ... },
        "Claude": { ... },
        "Perplexity": { ... },
        "Gemini": { ... }
    }

    每个 LLM 的回复内容会根据其 API 的返回格式有所不同。如果某个 LLM 因为 API 密钥未配置或请求错误导致失败,则对应的值会包含错误信息。

信息

分类

AI与计算