使用说明
项目简介
deep-research-mcp 是一个基于 Model Context Protocol (MCP) 构建的服务器,旨在为 LLM 客户端提供强大的深度网络研究能力。它通过集成的 AI 工具,能够执行多轮迭代的搜索查询,评估信息来源的可靠性,并生成详细的研究报告。此 MCP 服务器允许用户通过 Claude Desktop 等兼容 MCP 协议的客户端,调用 'deep-research' 工具进行复杂的网络研究任务。
主要功能点
- 深度迭代研究: 通过生成定向搜索查询,进行深入、迭代式的网络研究。
- 可控的研究范围: 通过 'depth' (深度) 和 'breadth' (广度) 参数控制研究的范围和细致程度。
- 来源可靠性评估: 对信息来源进行详细的可靠性评分 (0-1) 和推理,优先使用高可靠性来源。
- 报告生成: 生成包含研究发现、来源及可靠性评估的 Markdown 格式详细报告。
- MCP 工具集成: 作为一个 Model Context Protocol (MCP) 工具,方便集成到各类 AI 客户端,如 Claude Desktop。
- 成本优化: 通过缓存、内容优化和智能查询生成等多种策略,降低研究成本。
- 调试和 Prompt 管理: 提供增强的调试功能和集中的 Prompt 管理,方便用户理解和定制研究过程。
安装步骤
-
克隆仓库:
git clone https://github.com/christiangraham702/deep-research-mcp cd deep-research-mcp -
安装依赖:
npm install -
配置环境变量: 复制 '.env.example' 文件并重命名为 '.env.local',根据需要配置 OpenAI API 密钥等信息。
cp .env.example .env.local # 编辑 .env.local 文件,填入 OpenAI API Key (OPENAI_API_KEY) # 其他配置项如 FIRECRAWL_BASE_URL, FIRECRAWL_KEY, LANGFUSE_PUBLIC_KEY, LANGFUSE_SECRET_KEY 等为可选配置 -
构建项目:
npm run build
服务器配置
以下 JSON 配置信息用于 MCP 客户端 (如 Claude Desktop) 连接到 deep-research-mcp 服务器。
{ "serverName": "deep-research", // MCP 服务器名称,与 src/mcp-server.ts 中 server 实例的 name 属性一致 "command": "npm", // 启动服务器的命令,这里使用 npm "args": ["run", "start-mcp"] // 启动命令的参数,运行 package.json 中 scripts 定义的 start-mcp 脚本 }
'package.json' 文件 scripts 示例 (如果仓库中没有 'start-mcp' 脚本,请添加):
"scripts": { "build": "tsc", "start": "node dist/run.js", "start-mcp": "node dist/mcp-server.js" // 确保有此脚本用于启动 MCP 服务器 }
配置说明:
- 'serverName': 指定服务器的名称,客户端通过此名称识别服务。必须与 'src/mcp-server.ts' 中 'McpServer' 实例化的 'name' 属性值 '"deep-research"' 保持一致。
- 'command': 指定用于启动服务器进程的命令。通常为 'npm' 或 'node',取决于启动脚本的方式。
- 'args': 一个字符串数组,包含传递给 'command' 的参数。
- '"run"': 指示 'npm' 运行一个在 'scripts' 中定义的脚本。
- '"start-mcp"': 指定要运行的 npm 脚本名称,这里假设 'package.json' 的 'scripts' 中定义了 'start-mcp' 脚本,用于启动 MCP 服务器 ('node dist/mcp-server.js')。如果你的 'package.json' 中启动 MCP 服务器的脚本名称不同,请相应修改。
注意: 请确保你的 '.env.local' 文件中已配置 'OPENAI_API_KEY',并且根据需要配置了其他环境变量。
基本使用方法
-
启动 MCP 服务器: 在 deep-research-mcp 仓库目录下,运行以下命令启动 MCP 服务器:
npm run start-mcp服务器成功启动后,会在控制台输出 "Deep Research MCP Server running on stdio" 等信息。
-
配置 MCP 客户端: 打开支持 MCP 协议的客户端,例如 Claude Desktop,按照其添加自定义服务器的指引,填入上述提供的服务器配置 JSON 信息。
-
使用 'deep-research' 工具: 在 MCP 客户端中,即可调用 'deep-research' 工具进行研究。工具接受 'query' (研究查询), 'depth' (研究深度), 'breadth' (研究广度) 等参数。例如,在 Claude Desktop 中,你可以通过 '@deep-research' 加上你的研究指令来使用该工具。
例如,在 Claude Desktop 中输入:
@deep-research query="最新人工智能技术发展" depth=3 breadth=3服务器将开始执行深度研究,并在客户端返回研究报告。
高级用法:
- 调试模式: 通过设置 '.env.local' 文件中的 'DEBUG_MODE=true' 和其他 'DEBUG_*' 变量,启用详细的调试日志输出,帮助理解研究过程和排查问题。
- 本地 Firecrawl: 如果不想使用 Firecrawl API,可以配置本地 Firecrawl 实例,具体步骤参考 README.md 中的 "Advanced Setup" 部分。
- Observability: 可以集成 Langfuse 用于跟踪研究流程、查询和结果,需要配置 'LANGFUSE_PUBLIC_KEY' 和 'LANGFUSE_SECRET_KEY' 环境变量。
信息
分类
AI与计算