项目简介
Obot 是一个强大的开源 AI 平台和 Model Context Protocol (MCP) 网关,旨在为 LLM(大型语言模型)应用提供全面的上下文服务。它允许用户部署在云端或本地,管理各种 AI 代理、工具、知识库和工作流,并通过统一的接口向 LLM 客户端提供上下文信息和功能。Obot 不仅作为 LLM 客户端与 MCP 服务器交互的网关,还提供内置的聊天界面和管理后台,简化 AI 应用的开发和运维。
主要功能点
- MCP 网关: Obot 作为 MCP 网关,是用户发现和连接 MCP 服务器的中心。它提供服务器目录浏览、配置管理、升级通知、OAuth 2.1 身份验证等功能,支持将本地或远程的 MCP 服务器无缝集成到您的 AI 解决方案中。
- AI 聊天界面: 提供直观的对话式聊天体验,用户可以通过自然语言与 AI 交互,获取答案,并利用连接的工具和数据执行任务。支持聊天线程、RAG(检索增强生成)知识集成、可重复任务创建和项目级行为定制。
- 管理后台: 为管理员提供全面的平台管理工具,包括创建和更新 MCP 服务器条目(支持 GitOps)、部署和托管 MCP 服务器、定义访问控制规则、跟踪审计日志、过滤请求、管理用户和配置 LLM 模型提供商。
- 多运行时支持: Obot 能够部署和管理多种类型的 MCP 服务器,包括基于 UVX、NPX、容器化(Docker 镜像)或远程 URL 的服务器,提供极大的灵活性。
- 工具与资源管理: 平台内置对 AI 代理 (Agents)、工作流 (Workflows)、任务 (Tasks)、内存 (Memories)、文件 (Files)、凭证 (Credentials) 和知识源 (Knowledge Sources) 的管理。这些都可以作为 LLM 的上下文资源和可调用工具。
安装步骤
Obot 可以通过 Docker 快速部署。
-
安装 Docker: 确保您的系统已安装 Docker(例如 Docker Desktop)。
-
运行 Obot 容器: 打开终端或命令行,执行以下命令:
docker run -d --name obot -p 8080:8080 -v /var/run/docker.sock:/var/run/docker.sock -e OPENAI_API_KEY=<您的OpenAI API Key> ghcr.io/obot-platform/obot:latest- 请将 '<您的OpenAI API Key>' 替换为您实际的 OpenAI API Key。此环境变量是可选的,但建议设置,否则您需要从 Obot Admin UI 配置模型提供商才能使用聊天功能。
- 您也可以通过 '-e ANTHROPIC_API_KEY=<您的Anthropic API Key>' 来设置 Anthropic API Key。
-
访问用户界面: 容器成功启动后,在您的网页浏览器中打开 'http://localhost:8080' 即可访问 Obot 的用户界面,包括聊天和管理功能。
MCP 客户端配置信息示例
作为 MCP 网关,Obot 本身向 MCP 客户端提供服务,并可代理或管理其他 MCP 服务器。当您的 MCP 客户端需要连接到 Obot 网关时,它可能需要以下配置信息来建立连接(通常通过 HTTP 上的 JSON-RPC 协议):
{ "name": "Obot MCP Gateway", "command": "http", "args": { "url": "http://localhost:8080/api" // 可选:如果 Obot 网关启用了认证,您可以在这里添加必要的 HTTP 头部,例如: // "headers": { // "Authorization": "Bearer <您的认证Token>" // } }, "description": "连接到 Obot MCP 网关,以访问其管理的所有AI功能、工具和上下文信息。", "metadata": { "gateway_managed": true, "version": "latest" } }
- name: MCP 服务器的显示名称,用于在客户端界面中识别该服务。
- command: 连接 MCP 服务器的协议类型。对于通过 HTTP 暴露的 MCP 服务器,通常为 "http"。
- args: 协议相关的参数。
- url: Obot MCP 网关的 API 端点。这是 MCP 客户端发送 JSON-RPC 请求的地址。
- headers: (可选)一个键值对对象,用于设置 HTTP 请求头,例如身份验证令牌。
- description: 对此 MCP 服务器的简要说明。
- metadata: (可选)包含额外元数据的键值对对象,可用于客户端显示或内部管理。
基本使用方法
- 登录 Obot UI: 在浏览器中访问 'http://localhost:8080'。首次使用可能需要进行初始设置或登录流程。
- 配置模型提供商: 如果在 Docker 启动时未设置 'OPENAI_API_KEY' 或 'ANTHROPIC_API_KEY',请登录 "Admin" 界面,导航到 "Model Provider Management" 配置您偏好的 LLM 模型提供商,以便聊天功能能够正常使用。
- 管理 MCP 服务器(可选): 在 "Admin" 界面中,您可以浏览、添加、配置和部署各种 MCP 服务器条目。这些条目定义了您的 AI 平台可以访问的外部工具和数据源。
- 开始聊天: 切换到 "Chat" 界面,您可以开始与 AI 进行自然语言交互。AI 将利用您配置的 MCP 服务器和知识库来提供更丰富的上下文和功能。
- 创建任务或工作流: Obot 允许您创建和调度自动化任务或工作流。这些任务可以调用 MCP 服务器提供的工具和能力来执行复杂操作,例如定时数据同步、自动回复邮件等。
信息
分类
开发者工具