Deep Research MCP 使用说明
项目简介
Deep Research MCP 是一个基于 Python 和 FastMCP 框架构建的 MCP 服务器,旨在为 LLM 客户端提供强大的研究能力。它通过 'deep_research' 工具,允许 LLM 客户端利用多智能体系统执行复杂的在线研究任务,并返回结构化的研究报告。
主要功能点
- 提供 'deep_research' 工具: LLM 客户端可以调用此工具,输入研究问题 (query) 和研究的语气 (tone),服务器将驱动多智能体系统进行研究。
- 多智能体研究框架: 后端集成了多种 AI 智能体(如 ResearchAgent, EditorAgent, WriterAgent 等),协同工作完成研究任务。
- FastMCP 服务器: 基于 FastMCP 框架搭建,易于部署和扩展。
- 可配置的研究语气: 支持 objective, critical, optimistic 等多种研究语气。
- 环境配置: 使用 '.env' 文件管理 API 密钥等敏感信息。
安装步骤
-
克隆仓库:
git clone https://github.com/JoshuaLelon/deep-research-mcp.git cd deep-research-mcp -
配置 '.env' 文件: 复制 '.env.example' 文件并重命名为 '.env',然后编辑 '.env' 文件,填入必要的环境变量,例如 OpenAI API 密钥:
cp .env.example .env # 编辑 .env 文件,例如: # OPENAI_API_KEY=sk-your-openai-api-key -
安装依赖:
pip install -r multi_agents/requirements.txt
服务器配置
要将 Deep Research MCP 服务器配置到 MCP 客户端(例如 Claude 桌面应用),您需要提供服务器的启动命令和参数。以下是一个 'claude_desktop_config.json' 文件的配置示例,请根据您的实际 Python 解释器路径和项目路径进行修改:
{ "mcpServers": { "deep-research-mcp": { "command": "/path/to/your/python/interpreter", // 请替换为您的 Python 解释器路径,例如 /usr/bin/python3 或 /Users/yourname/.venv/bin/python "args": [ "/path/to/this/project/deep-research-mcp/mcp_server.py" // 请替换为您的 deep-research-mcp 项目的 mcp_server.py 文件的绝对路径 ] } } }
参数说明:
- '"deep-research-mcp"': MCP 服务器的名称,可以自定义。
- '"command"': 启动 MCP 服务器的命令,通常是 Python 解释器的路径。
- '"args"': 传递给启动命令的参数列表,这里指定了 'mcp_server.py' 脚本的路径。
基本使用方法
-
启动 MCP 服务器: 在项目根目录下运行以下命令启动 Deep Research MCP 服务器:
python mcp_server.py服务器成功启动后,将监听 MCP 客户端的请求。
-
在 MCP 客户端中调用 'deep_research' 工具: 在配置好 MCP 服务器的客户端中,您可以使用 'deep_research' 工具进行研究。例如,在 Claude 客户端中,您可以指示 Claude 调用 'deep_research' 工具,并提供研究问题和语气等参数。
客户端发送给服务器的 JSON-RPC 请求示例 (概念性示例,实际请求格式取决于 MCP 客户端):
{ "jsonrpc": "2.0", "method": "call_tool", "params": { "tool_name": "deep_research", "tool_arguments": { "query": "人工智能的未来发展趋势", "tone": "objective" } }, "id": 1 }服务器将执行研究任务,并通过 JSON-RPC 响应返回研究报告。
信息
分类
AI与计算