项目简介
Second Opinion MCP 是一个 MCP 服务器实现,旨在通过 MCP 协议让 AI 客户端能够方便地访问和利用来自多个不同 LLM 提供商(如 OpenAI, Google, xAI, Anthropic, HuggingFace, DeepSeek)的能力。它使得 AI 客户端可以在一个会话中轻松获取不同模型的观点、比较它们的输出,甚至组织它们进行模拟讨论。
主要功能点
- 多模型访问:通过配置的 API 密钥,连接并调用包括 OpenAI (GPT系列)、Gemini、Grok、Claude、HuggingFace Inference API 上的众多模型、DeepSeek 等多种 LLM。
- 意见征询:让 AI 客户端可以向特定的外部模型提出问题,获取该模型的独立意见。
- 模型比较:同时向同一平台的多个模型或跨不同平台的指定模型提出相同问题,并列比较它们的回答。
- AI 群组讨论:设定一个主题和多个 AI 模型参与者,让这些模型进行多轮对话,模拟群组讨论,每个参与者都能看到之前的对话内容。
- 会话记忆:为每个模型维护独立的短期会话历史,使得连续的意见征询或讨论具有上下文。
- 能力声明:通过 MCP 协议向客户端声明其提供的所有工具(如获取意见、比较、讨论等)。
安装步骤
- 克隆仓库代码到本地。
- 进入项目目录。
- 使用 pip 安装所需的 Python 依赖库(具体列表在项目的 'requirements.txt' 文件中)。
服务器配置
- 该 MCP 服务器不是独立运行的,需要通过支持 MCP 协议的客户端(例如 Claude Desktop)来启动和管理。
- 在 MCP 客户端的配置界面中,你需要添加一个新的 MCP 服务器配置项。
- 配置信息通常需要指定一个唯一的服务器名称(例如 'second-opinion')、用于启动服务器脚本的命令路径 ('command',例如 'python3')、启动脚本的参数 ('args',例如指向 'main.py' 文件的路径)。
- 重要的配置项是 API 密钥。你需要为你希望使用的各个平台(OpenAI, Gemini, Grok, Claude, HuggingFace, DeepSeek)获取 API 密钥,并在客户端配置中通过环境变量 ('env' 字段) 的形式提供给服务器脚本(例如将 'OPENAI_API_KEY' 设置为你的 OpenAI 密钥)。未配置密钥的平台功能将自动禁用。
- 保存配置后,重启 MCP 客户端,客户端将尝试启动并连接该服务器。
基本使用方法
- 配置完成后,在你的 MCP 客户端(例如 Claude Desktop)的聊天界面中,你可以像使用普通工具一样使用 Second Opinion MCP 提供的功能。
- 例如,你可以用自然语言提出请求,如:"Get a second opinion from GPT-4.1 on this code snippet"(让 GPT-4.1 对这段代码提供第二意见),或者 "Compare how Claude-4-opus and gemini-2.0-flash would solve this problem"(比较 Claude-4-opus 和 gemini-2.0-flash 如何解决这个问题),或者 "Start a group discussion about AI ethics with GPT-4.1, Claude-4, Gemini, and DeepSeek"(与 GPT-4.1、Claude-4、Gemini 和 DeepSeek 开始一场关于 AI 伦理的群组讨论)。客户端的工具调用功能会将你的请求转化为 MCP 调用并发送给 Second Opinion MCP 服务器。
信息
分类
AI与计算