项目简介
Multi-Model Advisor MCP Server 是一个实现了 Model Context Protocol (MCP) 的服务器,旨在作为一个桥梁,连接大型语言模型客户端(如 Claude Desktop)和本地运行的 Ollama 模型。它允许用户通过客户端向多个 Ollama 模型提出问题,并汇总来自不同模型的回答,从而获得更全面、多角度的 AI 建议。
主要功能点
- 多模型查询: 支持同时向多个 Ollama 模型发送查询请求,获取来自不同模型的回复。
- 角色扮演: 可以为每个 Ollama 模型设置不同的系统提示词,赋予它们不同的角色或 persona,从而获得更多样化的视角。
- 模型列表查看: 提供工具列出本地 Ollama 环境中可用的模型。
- 自定义提示词: 允许用户为每个模型自定义系统提示词,或在查询时动态指定。
- 环境变量配置: 通过 '.env' 文件灵活配置服务器参数和 Ollama 模型设置。
- Claude Desktop 集成: 无缝集成到 Claude for Desktop 客户端,提供增强的 AI 顾问体验。
安装步骤
- 克隆仓库:
git clone https://github.com/YuChenSSR/multi-ai-advisor-mcp.git cd multi-ai-advisor-mcp - 安装依赖:
npm install - 构建项目:
npm run build - 拉取 Ollama 模型 (可选):
根据需要拉取 Ollama 模型,例如:
ollama pull gemma3:1b ollama pull llama3.2:1b ollama pull deepseek-r1:1.5b
服务器配置 (Claude Desktop 客户端)
要将此 MCP 服务器连接到 Claude Desktop,您需要编辑 Claude Desktop 的配置文件 'claude_desktop_config.json'。
-
找到配置文件:
- MacOS: '~/Library/Application Support/Claude/claude_desktop_config.json'
- Windows: '%APPDATA%\Claude\claude_desktop_config.json'
-
编辑配置文件: 在 'mcpServers' 字段中添加以下 JSON 配置,将 '/absolute/path/to/multi-ai-advisor-mcp' 替换为您项目目录的绝对路径。
{ "mcpServers": { "multi-model-advisor": { "command": "node", "args": ["/absolute/path/to/multi-ai-advisor-mcp/build/index.js"] } } }- 'server name': 服务器名称,这里设置为 "multi-model-advisor"。
- 'command': 启动服务器的命令,这里使用 'node' 运行 JavaScript 代码。
- 'args': 命令参数,指定服务器入口文件 'build/index.js' 的绝对路径。请务必替换为您的实际路径。
-
重启 Claude Desktop: 使配置生效。
基本使用方法
成功连接后,您可以在 Claude Desktop 中通过以下方式使用 Multi-Model Advisor:
- 列出可用模型: 询问 Claude 'Show me which Ollama models are available on my system' 来查看 Ollama 中可用的模型列表。
- 多模型提问: 在提问时,指示 Claude 使用 multi-model advisor 并指定模型名称,例如: 'what are the most important skills for success in today's job market, you can use gemma3:1b, llama3.2:1b, deepseek-r1:1.5b to help you' Claude 将会调用 Multi-Model Advisor MCP 服务器,使用指定的 Ollama 模型进行查询,并将汇总的回复呈现给您。您也可以不指定模型,服务器将使用默认配置的模型。
信息
分类
AI与计算