使用说明
项目简介
Louis项目是一个基于 Open WebUI 构建的项目,旨在提供一套完整的 LLM 应用后端服务。其中,GPT Researcher MCP Server 组件是该项目的核心部分,它基于 Model Context Protocol (MCP) 构建,专注于为大型语言模型 (LLM) 客户端提供研究和信息检索相关的上下文信息和工具。该服务器集成了 GPT Researcher 的研究能力,并以 MCP 标准协议对外提供服务,使得 LLM 应用能够便捷地调用研究工具,获取结构化信息,从而实现更强大的研究和分析功能。
请注意: Louis 项目本身更像是一个集成方案,它使用了 Open WebUI 作为基础界面,并在其基础上集成了 GPT Researcher MCP Server 和其他服务(如 LiteLLM)。因此,该仓库本身可能不包含独立的、从零开始编写的 MCP 服务器代码,而是对现有工具的集成和封装,使其符合 MCP 协议规范。
主要功能点
- 资源管理 (Resources): 虽然仓库描述中没有明确提及资源管理,但作为 MCP 服务器,理论上应具备管理和提供研究过程中产生的文档、数据等资源的能力,以便 LLM 客户端访问和利用。具体实现可能依赖于 GPT Researcher 的内部机制。
- 工具注册与执行 (Tools): 集成了 GPT Researcher 的核心研究工具,允许 LLM 客户端通过 MCP 协议调用 GPT Researcher 的研究功能,例如信息检索、网页抓取、文档分析等。这些工具被封装成 MCP 可调用的形式。
- Prompt 模板 (Prompts): Open WebUI 本身具备 Prompt 管理功能,Louis 项目可能利用或扩展了 Open WebUI 的 Prompt 功能,以便为研究任务定制 Prompt 模板,优化 LLM 的研究效果。
- JSON-RPC 协议通信: MCP 服务器遵循 JSON-RPC 协议与客户端通信,接收客户端的请求并返回符合 MCP 规范的响应。
- Docker 容器化部署: 提供 Docker 镜像,方便用户快速部署和运行 GPT Researcher MCP Server。
安装步骤
由于该项目提供 Docker 镜像,推荐使用 Docker 方式快速部署。
-
克隆仓库(可选): 如果您需要修改配置或进行开发,可以克隆仓库:
git clone --recurse-submodules https://github.com/ai-cfia/louis.git如果您仅仅是使用预构建的 Docker 镜像,可以跳过此步骤。
-
拉取 Docker 镜像: 从 GitHub Container Registry (GHCR) 拉取预构建的 GPT Researcher MCP Server 镜像。推荐使用 'louis-main' 标签获取最新版本:
docker pull ghcr.io/ai-cfia/louis/gpt-researcher-mcp:louis-main您也可以选择拉取特定 commit 版本的镜像,例如 'ghcr.io/ai-cfia/louis/gpt-researcher-mcp:louis-a1b2c3d'。
-
运行 Docker 容器: 使用 Docker 运行拉取的镜像。具体的运行命令和参数需要参考 Louis 项目或 GPT Researcher MCP Server 的更详细文档(如果存在)。 假设默认端口为 '8080',一个基本的运行命令可能如下:
docker run -d -p 8080:8080 ghcr.io/ai-cfia/louis/gpt-researcher-mcp:louis-main注意: 实际运行命令可能需要根据 GPT Researcher MCP Server 的具体配置进行调整,例如端口映射、数据卷挂载、环境变量设置等。请查阅更详细的文档或 Dockerfile 获取准确的运行参数。
服务器配置 (MCP 客户端配置)
MCP 客户端需要配置以下 JSON 信息才能连接到 GPT Researcher MCP Server。由于该服务器基于 Docker 部署,客户端主要需要配置服务器的访问地址和端口。
{ "serverName": "GPT Researcher MCP Server", "command": "docker", "args": [ "run", "-d", "-p", "8080:8080", "ghcr.io/ai-cfia/louis/gpt-researcher-mcp:louis-main" ], "host": "localhost", // 如果 MCP 服务器和客户端在同一台机器上,使用 localhost 或 127.0.0.1 "port": 8080, // 假设 GPT Researcher MCP Server 默认监听 8080 端口 "protocol": "http", // 假设使用 HTTP 协议,如果使用 WebSocket 或 SSE,请相应修改 "path": "/mcp" // 假设 MCP 服务器的 JSON-RPC 端点路径为 /mcp,具体路径请参考服务器文档 // 其他可能的配置项,例如认证信息 (apiKey, accessToken 等),如果服务器需要的话 }
配置说明:
- '"serverName"': MCP 服务器的名称,用于客户端识别。
- '"command"': 启动 MCP 服务器的命令,这里使用 'docker',表示通过 Docker 运行。
- '"args"': 启动命令的参数,这里包含了 Docker 运行 GPT Researcher MCP Server 镜像的参数。请注意,这里的参数仅为示例,实际参数需要根据您的 Docker 环境和服务器需求进行调整。 例如,您可能需要添加数据卷挂载、环境变量设置等。
- '"host"': MCP 服务器的主机地址。如果服务器和客户端部署在不同的机器上,请将 'localhost' 替换为服务器的 IP 地址或域名。
- '"port"': MCP 服务器监听的端口。
- '"protocol"': MCP 客户端与服务器通信的协议,常见的有 'http'、'ws' (WebSocket)、'sse' (SSE)。 请根据 GPT Researcher MCP Server 实际支持的协议进行配置。
- '"path"': MCP 服务器 JSON-RPC 端点的路径。
更准确的服务器配置信息,请参考 GPT Researcher MCP Server 的官方文档或相关配置说明。 以上配置仅为根据仓库信息和 MCP 服务器通用配置进行的推测。
基本使用方法
- 启动 MCP 服务器: 根据上述安装步骤和服务器配置,启动 GPT Researcher MCP Server Docker 容器。
- 配置 MCP 客户端: 在您的 MCP 客户端应用中,配置上述 JSON 格式的服务器连接信息。
- 连接 MCP 服务器: 启动 MCP 客户端,客户端将根据配置信息连接到 GPT Researcher MCP Server。
- 调用 MCP 功能: 通过 MCP 客户端,您可以向 GPT Researcher MCP Server 发送 MCP 请求,例如:
- 查询资源: 请求获取研究相关的文档、数据等资源。
- 调用工具: 请求执行 GPT Researcher 提供的研究工具,例如信息检索、网页分析等。
- 获取 Prompt 模板: 请求获取预定义的 Prompt 模板,用于指导 LLM 进行研究任务。
- 处理响应: MCP 客户端接收来自服务器的 JSON-RPC 响应,并根据响应内容进行后续处理,例如将研究结果展示给用户,或继续进行下一步研究操作。
具体的功能调用方式和参数,需要参考 GPT Researcher MCP Server 提供的 MCP 接口文档。
信息
分类
AI与计算