使用说明
项目简介
Deep Research Server 是一个基于 Model Context Protocol (MCP) 构建的后端服务,旨在为大型语言模型 (LLM) 客户端提供强大的研究辅助功能。它通过标准化的 MCP 接口,将网络搜索、文档分析、图像分析等工具以服务形式提供,帮助 LLM 更好地理解和处理复杂的研究任务。
主要功能点
- 网页搜索与信息收集:集成网络搜索引擎,能够根据用户查询进行信息检索。
- PDF 和文档分析:支持分析 PDF 文档和各类文本文件,提取文本内容。
- 图像分析与描述:能够分析图片内容,并生成图像描述。
- YouTube 视频转录:支持获取 YouTube 视频的文字 transcripts。
- 互联网档案馆搜索:可以访问互联网档案馆 (Internet Archive) 检索历史网页信息。
安装步骤
-
克隆仓库
git clone https://github.com/Hajime-Y/deep-research-mcp.git cd deep-research-mcp -
创建虚拟环境并安装依赖
uv venv source .venv/bin/activate # Linux 或 Mac # .venv\Scripts\activate # Windows uv sync -
配置环境变量 在项目根目录下创建 '.env' 文件,并填入以下 API 密钥:
OPENAI_API_KEY=你的OpenAI API密钥 HF_TOKEN=你的HuggingFace Token SERPER_API_KEY=你的SerpAPI密钥- 'OPENAI_API_KEY': 用于访问 OpenAI 模型的 API 密钥。
- 'HF_TOKEN': HuggingFace Hub 的访问令牌,用于使用 HuggingFace 模型。
- 'SERPER_API_KEY': Serper.dev 搜索引擎 API 密钥,用于网页搜索功能。你需要在 Serper.dev 注册并获取。
服务器配置
以下 JSON 配置信息可以帮助 MCP 客户端连接到 Deep Research Server。客户端需要配置服务器名称 (server name)、启动命令 (command) 及其参数 (args)。
{ "server_name": "deep-research", "command": "uv", "args": [ "run", "deep_research.py" ], "description": "Deep Research MCP Server 提供网页搜索、文档和图像分析能力。" }
- 'server_name': 服务器名称,客户端用于标识和调用。
- 'command': 启动服务器的命令,这里使用 'uv run' 运行 Python 脚本。
- 'args': 命令参数,指定要运行的 Python 脚本 'deep_research.py'。
- 'description': 服务器的简要描述,方便客户端用户了解服务器功能。
注意: 确保在运行 MCP 客户端之前,Deep Research Server 已经成功启动并运行。
基本使用方法
-
启动服务器 在终端中,进入项目根目录,运行以下命令启动 Deep Research Server:
uv run deep_research.py服务器成功启动后,将通过标准输入/输出 (stdio) 监听 MCP 客户端的请求。
-
客户端请求 MCP 客户端可以使用 JSON-RPC 协议向 Deep Research Server 发送请求,例如调用 'deep_research' 工具进行深度研究。具体的请求格式和工具调用方式请参考 MCP 协议文档和客户端软件的使用说明。
Deep Research Server 提供了一个名为 'deep_research' 的工具,客户端可以调用此工具并传入自然语言问题 (question) 以进行深入的网络搜索和信息挖掘。
例如,客户端可以发送如下 JSON-RPC 请求调用 'deep_research' 工具:
{ "jsonrpc": "2.0", "method": "call_tool", "params": { "tool_name": "deep_research", "tool_input": { "question": "请查找2023年关于人工智能在医疗领域应用的最新研究进展。" } }, "id": "1" }服务器将执行深度研究,并通过 JSON-RPC 响应返回结果。
信息
分类
网页与API