GPT Researcher MCP Server

使用说明

项目简介

Louis项目是一个基于 Open WebUI 构建的项目,旨在提供一套完整的 LLM 应用后端服务。其中,GPT Researcher MCP Server 组件是该项目的核心部分,它基于 Model Context Protocol (MCP) 构建,专注于为大型语言模型 (LLM) 客户端提供研究和信息检索相关的上下文信息和工具。该服务器集成了 GPT Researcher 的研究能力,并以 MCP 标准协议对外提供服务,使得 LLM 应用能够便捷地调用研究工具,获取结构化信息,从而实现更强大的研究和分析功能。

请注意: Louis 项目本身更像是一个集成方案,它使用了 Open WebUI 作为基础界面,并在其基础上集成了 GPT Researcher MCP Server 和其他服务(如 LiteLLM)。因此,该仓库本身可能不包含独立的、从零开始编写的 MCP 服务器代码,而是对现有工具的集成和封装,使其符合 MCP 协议规范。

主要功能点

  • 资源管理 (Resources): 虽然仓库描述中没有明确提及资源管理,但作为 MCP 服务器,理论上应具备管理和提供研究过程中产生的文档、数据等资源的能力,以便 LLM 客户端访问和利用。具体实现可能依赖于 GPT Researcher 的内部机制。
  • 工具注册与执行 (Tools): 集成了 GPT Researcher 的核心研究工具,允许 LLM 客户端通过 MCP 协议调用 GPT Researcher 的研究功能,例如信息检索、网页抓取、文档分析等。这些工具被封装成 MCP 可调用的形式。
  • Prompt 模板 (Prompts): Open WebUI 本身具备 Prompt 管理功能,Louis 项目可能利用或扩展了 Open WebUI 的 Prompt 功能,以便为研究任务定制 Prompt 模板,优化 LLM 的研究效果。
  • JSON-RPC 协议通信: MCP 服务器遵循 JSON-RPC 协议与客户端通信,接收客户端的请求并返回符合 MCP 规范的响应。
  • Docker 容器化部署: 提供 Docker 镜像,方便用户快速部署和运行 GPT Researcher MCP Server。

安装步骤

由于该项目提供 Docker 镜像,推荐使用 Docker 方式快速部署。

  1. 克隆仓库(可选): 如果您需要修改配置或进行开发,可以克隆仓库:

    git clone --recurse-submodules https://github.com/ai-cfia/louis.git

    如果您仅仅是使用预构建的 Docker 镜像,可以跳过此步骤。

  2. 拉取 Docker 镜像: 从 GitHub Container Registry (GHCR) 拉取预构建的 GPT Researcher MCP Server 镜像。推荐使用 'louis-main' 标签获取最新版本:

    docker pull ghcr.io/ai-cfia/louis/gpt-researcher-mcp:louis-main

    您也可以选择拉取特定 commit 版本的镜像,例如 'ghcr.io/ai-cfia/louis/gpt-researcher-mcp:louis-a1b2c3d'。

  3. 运行 Docker 容器: 使用 Docker 运行拉取的镜像。具体的运行命令和参数需要参考 Louis 项目或 GPT Researcher MCP Server 的更详细文档(如果存在)。 假设默认端口为 '8080',一个基本的运行命令可能如下:

    docker run -d -p 8080:8080 ghcr.io/ai-cfia/louis/gpt-researcher-mcp:louis-main

    注意: 实际运行命令可能需要根据 GPT Researcher MCP Server 的具体配置进行调整,例如端口映射、数据卷挂载、环境变量设置等。请查阅更详细的文档或 Dockerfile 获取准确的运行参数。

服务器配置 (MCP 客户端配置)

MCP 客户端需要配置以下 JSON 信息才能连接到 GPT Researcher MCP Server。由于该服务器基于 Docker 部署,客户端主要需要配置服务器的访问地址和端口。

{
  "serverName": "GPT Researcher MCP Server",
  "command": "docker",
  "args": [
    "run",
    "-d",
    "-p",
    "8080:8080",
    "ghcr.io/ai-cfia/louis/gpt-researcher-mcp:louis-main"
  ],
  "host": "localhost",  // 如果 MCP 服务器和客户端在同一台机器上,使用 localhost 或 127.0.0.1
  "port": 8080,         // 假设 GPT Researcher MCP Server 默认监听 8080 端口
  "protocol": "http",   //  假设使用 HTTP 协议,如果使用 WebSocket 或 SSE,请相应修改
  "path": "/mcp"       //  假设 MCP 服务器的 JSON-RPC 端点路径为 /mcp,具体路径请参考服务器文档
  // 其他可能的配置项,例如认证信息 (apiKey, accessToken 等),如果服务器需要的话
}

配置说明:

  • '"serverName"': MCP 服务器的名称,用于客户端识别。
  • '"command"': 启动 MCP 服务器的命令,这里使用 'docker',表示通过 Docker 运行。
  • '"args"': 启动命令的参数,这里包含了 Docker 运行 GPT Researcher MCP Server 镜像的参数。请注意,这里的参数仅为示例,实际参数需要根据您的 Docker 环境和服务器需求进行调整。 例如,您可能需要添加数据卷挂载、环境变量设置等。
  • '"host"': MCP 服务器的主机地址。如果服务器和客户端部署在不同的机器上,请将 'localhost' 替换为服务器的 IP 地址或域名。
  • '"port"': MCP 服务器监听的端口。
  • '"protocol"': MCP 客户端与服务器通信的协议,常见的有 'http'、'ws' (WebSocket)、'sse' (SSE)。 请根据 GPT Researcher MCP Server 实际支持的协议进行配置。
  • '"path"': MCP 服务器 JSON-RPC 端点的路径。

更准确的服务器配置信息,请参考 GPT Researcher MCP Server 的官方文档或相关配置说明。 以上配置仅为根据仓库信息和 MCP 服务器通用配置进行的推测。

基本使用方法

  1. 启动 MCP 服务器: 根据上述安装步骤和服务器配置,启动 GPT Researcher MCP Server Docker 容器。
  2. 配置 MCP 客户端: 在您的 MCP 客户端应用中,配置上述 JSON 格式的服务器连接信息。
  3. 连接 MCP 服务器: 启动 MCP 客户端,客户端将根据配置信息连接到 GPT Researcher MCP Server。
  4. 调用 MCP 功能: 通过 MCP 客户端,您可以向 GPT Researcher MCP Server 发送 MCP 请求,例如:
    • 查询资源: 请求获取研究相关的文档、数据等资源。
    • 调用工具: 请求执行 GPT Researcher 提供的研究工具,例如信息检索、网页分析等。
    • 获取 Prompt 模板: 请求获取预定义的 Prompt 模板,用于指导 LLM 进行研究任务。
  5. 处理响应: MCP 客户端接收来自服务器的 JSON-RPC 响应,并根据响应内容进行后续处理,例如将研究结果展示给用户,或继续进行下一步研究操作。

具体的功能调用方式和参数,需要参考 GPT Researcher MCP Server 提供的 MCP 接口文档。

服务器信息