使用说明
项目简介
本项目是一个基于 Model Context Protocol (MCP) 构建的服务器,旨在帮助用户轻松地交叉验证来自不同大型语言模型 (LLM) 提供商的回复。它通过集成多个流行的 LLM API(如 OpenAI, Anthropic, Perplexity, Google Gemini),并提供一个统一的接口,使得用户可以通过 Claude Desktop 等 MCP 客户端,向多个 LLM 同时发送相同的 Prompt,并获取各自的回复结果,从而进行对比分析。
主要功能点
- 并行查询多LLM: 支持同时向多个配置的 LLM 提供商发送查询请求,显著提升效率。
- 支持多种主流LLM: 目前已集成 OpenAI (ChatGPT), Anthropic (Claude), Perplexity AI, 和 Google (Gemini) 的 API。
- 异步并行处理: 采用异步编程实现并行请求处理,加速响应速度。
- 易于集成 Claude Desktop: 设计为 MCP 服务器,可以无缝集成到 Claude Desktop 等 MCP 客户端中使用。
- 灵活配置: 允许用户根据需要配置要使用的 LLM 提供商,只需配置相应的 API 密钥。
安装步骤
-
克隆仓库:
git clone https://github.com/lior-ps/multi-llm-cross-check-mcp-server.git cd multi-llm-cross-check-mcp-server -
初始化 uv 虚拟环境并安装依赖:
uv venv uv pip install -r requirements.txt注意: 'uv' 是一个快速的 Python 包管理器,如果未安装,请先使用 'pip install uv' 安装。
服务器配置
要将此 MCP 服务器配置到 Claude Desktop 中,您需要在 Claude Desktop 的配置目录中创建一个名为 'claude_desktop_config.json' 的文件,并填入以下内容:
{ "mcp_servers": [ { "command": "uv", "args": [ "--directory", "/multi-llm-cross-check-mcp-server", "run", "main.py" ], "env": { "OPENAI_API_KEY": "your_openai_key", // 从 OpenAI 官网获取 API 密钥 "ANTHROPIC_API_KEY": "your_anthropic_key", // 从 Anthropic 官网获取 API 密钥 "PERPLEXITY_API_KEY": "your_perplexity_key", // 从 Perplexity AI 官网获取 API 密钥 "GEMINI_API_KEY": "your_gemini_key" // 从 Google AI Studio 获取 API 密钥 } } ] }
配置说明:
- 'command': 指定启动服务器的命令,这里使用 'uv' 包管理器。
- 'args': 命令的参数,
- '--directory "/multi-llm-cross-check-mcp-server"': 指定项目目录,请替换为您的实际仓库路径。
- '"run"': 'uv run' 命令用于运行 Python 脚本。
- '"main.py"': 指定要运行的服务器主程序文件。
- 'env': 设置环境变量,用于配置各个 LLM 提供商的 API 密钥。
- 'OPENAI_API_KEY', 'ANTHROPIC_API_KEY', 'PERPLEXITY_API_KEY', 'GEMINI_API_KEY': 请替换为您的实际 API 密钥。如果您不使用某个 LLM,可以不填写对应的 API 密钥,服务器会自动跳过该提供商。
注意:
- 请确保将 '/multi-llm-cross-check-mcp-server' 替换为您本地仓库的实际绝对路径。
- 您只需要配置您想要使用的 LLM 提供商的 API 密钥。
- 如果 'uv' 命令无法直接使用,您可能需要指定 'uv' 可执行文件的完整路径。可以使用 'which uv' (MacOS/Linux) 或 'where uv' (Windows) 命令查找 'uv' 的路径。
基本使用方法
-
启动服务器: 当您打开配置了 MCP 服务器的 Claude Desktop 客户端时,服务器将自动启动。
-
使用 'cross_check' 工具: 在 Claude Desktop 的对话中,您可以指示 Claude Desktop 使用 'cross_check' 工具来进行多 LLM 交叉验证。例如,您可以这样提问:
"请使用 cross_check 工具,对比一下 '如何评价 ChatGPT-4o?' 在不同 LLM 中的回答。"
或者更直接地:
"cross_check 请分析 '未来十年人工智能发展趋势'。"
-
查看结果: 服务器会将来自不同 LLM 的回复以 JSON 格式返回给 Claude Desktop,您可以在 Claude Desktop 中查看和比较这些回复。返回的 JSON 格式如下:
{ "ChatGPT": { ... }, "Claude": { ... }, "Perplexity": { ... }, "Gemini": { ... } }每个 LLM 的回复内容会根据其 API 的返回格式有所不同。如果某个 LLM 因为 API 密钥未配置或请求错误导致失败,则对应的值会包含错误信息。
信息
分类
AI与计算