使用说明
项目简介
GPT Researcher MCP Server 是一个基于 Model Context Protocol (MCP) 构建的应用后端,它将 GPT Researcher 的强大网络研究能力通过 MCP 协议开放给 LLM 客户端。该服务器允许 LLM 应用以标准化的方式调用工具进行深入的网络研究、快速搜索,并获取研究报告和相关信息,从而增强 LLM 在信息获取和处理方面的能力。
主要功能点
- 深度网络研究 (deep_research):执行全面的网络研究,针对复杂查询提供高质量、深入的信息和分析,例如行业趋势分析、竞品分析等。
- 快速搜索 (quick_search):执行快速的网络搜索,适用于需要快速获取信息片段和搜索结果的场景,例如验证事实、获取简要信息等。
- 研究报告生成 (write_report):基于已完成的研究生成详细报告,支持自定义 Prompt,可以将研究结果整理成结构化的报告文档。
- 获取研究来源 (get_research_sources):检索并返回研究所使用的信息来源列表,方便用户追溯信息来源和评估信息可信度。
- 获取研究上下文 (get_research_context):获取完整的研究上下文内容,方便 LLM 应用理解研究的整体脉络和细节信息。
- 研究资源访问 (research://{topic}):以资源的形式直接访问特定主题的研究结果,无需显式调用工具,简化 LLM 客户端的调用流程。
- 研究查询 Prompt 模板 (research_query):提供 Prompt 模板,帮助用户构建研究查询,并指导 LLM 如何有效利用服务器提供的研究能力。
安装步骤
- 克隆仓库
git clone https://github.com/assafelovic/gpt-researcher.git cd gpt-researcher - 进入 gptr-mcp 目录
cd gptr-mcp - 安装依赖
pip install -r requirements.txt - 配置环境变量
- 复制 '.env.example' 文件创建 '.env' 文件:
cp .env.example .env - 编辑 '.env' 文件,填入 OpenAI API Key 和 Tavily API Key:
OPENAI_API_KEY=your_openai_api_key TAVILY_API_KEY=your_tavily_api_key
- 复制 '.env.example' 文件创建 '.env' 文件:
服务器配置
MCP 客户端需要配置以下 JSON 信息以连接到 GPT Researcher MCP Server:
{ "serverName": "GPT Researcher MCP Server", "command": "python", "args": ["server.py"] }
- 'serverName': 服务器名称,可自定义,用于在客户端标识服务器。
- 'command': 启动服务器的命令,这里使用 'python' 解释器。
- 'args': 启动命令的参数,指定执行 'server.py' 文件。
基本使用方法
- 启动服务器:在 'gptr-mcp' 目录下运行命令 'python server.py' 启动 MCP 服务器。
- 客户端调用:
- LLM 客户端可以通过配置的 JSON 信息连接到 MCP 服务器。
- 使用 'deep_research' 工具进行深度研究,例如查询 "人工智能的未来发展趋势"。
- 使用 'quick_search' 工具进行快速搜索,例如查询 "今日比特币价格"。
- 使用 'write_report' 工具基于 'deep_research' 返回的 'research_id' 生成研究报告。
- 使用 'research://{topic}' 资源直接获取主题研究内容,例如访问 'research://人工智能' 获取关于人工智能的研究信息。
- 使用 'get_research_sources' 和 'get_research_context' 工具获取研究的详细信息。
示例: 客户端调用 'deep_research' 工具,参数为 '{"query": "可再生能源的最新进展"}',服务器将返回研究结果,包含 'research_id',客户端可以使用此 ID 调用其他工具如 'write_report' 或 'get_research_sources'。
信息
分类
网页与API