使用说明
项目简介
GroundedLLM 是一个预构建的AI Agent服务器,旨在提升大型语言模型(LLM)的实用性。它通过集成 Letta 智能体框架和 Haystack 工具,实现了基于网络搜索和网页内容提取的知识增强,从而有效减少 LLM 的“幻觉”问题。该项目实现了 MCP 服务器,允许兼容 MCP 协议的客户端轻松接入并利用其提供的工具和服务。
主要功能点
- 开箱即用: 提供预配置的 Docker Compose 环境,快速启动并运行 AI Agent 服务。
- 知识增强: 集成 Tavily Web Search 工具,使 LLM 能够访问最新的网络信息,提供更可靠、更准确的答案。
- 网页内容提取: 集成网页内容提取工具,允许 LLM 从指定 URL 中获取信息,深入理解网页内容。
- 状态记忆: 基于 Letta 智能体框架,具备记忆能力,能够记住用户的偏好和对话历史,提供更个性化的交互体验。
- 工具调用: 通过 Hayhooks 暴露 MCP 服务器接口,支持工具注册和调用,允许 LLM 客户端利用服务器提供的搜索和提取工具。
- Open WebUI 前端: 集成 Open WebUI 用户界面,提供友好的交互界面,方便用户直接体验和使用 AI Agent 服务。
安装步骤
- 安装 Docker Compose: 确保您的系统已安装 Docker Compose。您可以参考 Docker 官方文档 进行安装。
- 获取 API Keys:
- Tavily API Key: 访问 Tavily 官网 注册并获取 API Key (用于网络搜索功能,免费额度)。
- Gemini API Key: 访问 Google AI for Developers 获取 Gemini API Key (用于文档搜索,免费额度)。
- Anthropic 或 OpenAI API Key: 访问 Anthropic 或 OpenAI 获取 API Key (用于 LLM,需付费,推荐 Claude Sonnet 3.7 或 gpt-4)。
- 配置环境变量:
- 复制 '.env.example' 文件并重命名为 '.env'。
- 编辑 '.env' 文件,填入您获取的 API Keys。
- 启动服务:
- 在终端中,导航到仓库根目录。
- 运行命令 'docker compose up' 启动所有服务。
- 等待日志输出 'initializer | 2025-04-06 14:29:00,484 - INFO - Initialization complete!',表示服务启动完成。
- 访问 Web UI:
- 打开浏览器,访问 http://localhost:3000 即可开始使用。
服务器配置 (MCP 客户端)
如果您需要将 GroundedLLM 作为 MCP 服务器连接到 MCP 客户端,您需要配置客户端以连接到 Hayhooks 提供的 MCP 服务。
MCP 服务器配置信息:
{ "serverName": "hayhooks-mcp-server", "transport": "sse", "address": "http://localhost:1416/sse" }
配置参数说明:
- 'serverName': MCP 服务器名称,固定为 'hayhooks-mcp-server',用于 MCP 客户端识别和发现工具。
- 'transport': 传输协议,设置为 'sse' (Server-Sent Events),GroundedLLM 使用 SSE 协议提供 MCP 服务。
- 'address': MCP 服务器地址,设置为 'http://localhost:1416/sse',指向 Hayhooks 服务器的 SSE 接口。请确保 MCP 客户端可以访问此地址。 如果 Hayhooks 服务部署在不同的主机或端口,请相应地修改此地址。
注意: MCP 客户端需要根据自身配置方法,正确填写以上 JSON 配置信息,才能与 GroundedLLM 服务器建立连接并使用其提供的工具。
基本使用方法
- 通过 Web UI 交互: 访问 http://localhost:3000 进入 Open WebUI 界面,在聊天框中输入您的问题或指令,即可与 AI Agent 进行对话。Agent 会根据您的输入,自动调用搜索和提取工具,并给出答案。
- 通过 MCP 客户端调用工具: 配置 MCP 客户端连接到 GroundedLLM 服务器后,客户端可以发现并调用服务器提供的 'search' 和 'extract' 工具,具体调用方式请参考 MCP 客户端的使用文档。
信息
分类
网页与API