使用说明
项目简介
OpenRouter Research Agents MCP Server 是一个实现了 Model Context Protocol (MCP) 的服务器,它利用 OpenRouter 平台提供的多种语言模型,为客户端应用(如 Cline)提供强大的研究代理功能。该服务器可以将复杂的 research 查询分解为多个子问题,分配给不同的研究代理并行处理,最终将结果整合为一份全面的研究报告。
主要功能点
- 智能研究规划:使用 Claude 3.7 Sonnet 模型进行研究规划,将复杂查询分解为多个具体的研究问题。
- 多代理并行研究:支持多个研究代理并行工作,每个代理可配置不同的 OpenRouter 模型,提高研究效率和覆盖面。
- 成本可配置:允许用户选择高成本或低成本模型进行研究,以平衡研究质量和成本。
- 研究报告生成:将来自不同代理的研究结果整合,生成结构化的研究报告,提供全面的上下文信息。
- 支持 MCP 协议:通过标准的 MCP 协议与客户端通信,易于集成到支持 MCP 的 LLM 应用中。
安装步骤
- 克隆仓库
git clone https://github.com/wheattoast11/openrouter-deep-research-mcp.git cd openrouter-deep-research-mcp - 安装依赖
npm install - 配置环境变量
复制 '.env.example' 文件并重命名为 '.env',然后编辑 '.env' 文件,填入你的 OpenRouter API Key。
cp .env.example .env # 编辑 .env 文件,添加 OPENROUTER_API_KEY=your_api_key_here
服务器配置
要将此 MCP 服务器集成到 MCP 客户端(例如 Cline),您需要配置客户端的 MCP 设置。以下是 Cline 客户端的配置示例,您需要将以下 JSON 配置添加到 Cline 的 'cline_mcp_settings.json' 文件中。
{ "mcpServers": { "openrouter-research-agents": { "command": "node", "args": ["YOUR_PROJECT_PATH_HERE/src/server/mcpServer.js", "--stdio"], // 请将 "YOUR_PROJECT_PATH_HERE" 替换为仓库的绝对路径 "env": { "OPENROUTER_API_KEY": "YOUR_OPENROUTER_API_KEY_HERE" // 请将 "YOUR_OPENROUTER_API_KEY_HERE" 替换为你的 OpenRouter API Key }, "disabled": false, "autoApprove": [] } } }
配置参数说明:
- 'server name': 服务器名称,客户端用以识别和调用。
- 'command': 启动服务器的命令,这里使用 'node' 运行 JavaScript 文件。
- 'args': 传递给启动命令的参数,'YOUR_PROJECT_PATH_HERE/src/server/mcpServer.js' 是服务器脚本的路径,'--stdio' 参数指定使用 STDIO 传输协议。
- 'env': 环境变量,'OPENROUTER_API_KEY' 用于配置 OpenRouter API 密钥。
基本使用方法
配置完成后,在 MCP 客户端中,您可以使用 'conduct_research' 和 'research_follow_up' 这两个工具进行研究。
例如,在 Cline 中,您可以这样提问:
Can you research the latest advancements in quantum computing?
或者指定研究成本偏好:
Can you conduct a high-cost research on climate change mitigation strategies?
服务器将处理您的请求,并返回研究报告。
关键词: 智能研究, 研究代理, OpenRouter, 多模型, 上下文协议
信息
分类
AI与计算