使用说明
项目简介
Dive 是一款开源的 MCP Host 桌面应用程序,旨在与支持函数调用的大型语言模型 (LLM) 无缝协作。它充当 MCP 客户端,可以集成和管理多个 MCP 服务器,从而扩展 LLM 的能力,使其能够访问外部数据、执行工具并使用自定义 Prompt 模板。Dive 提供了用户友好的界面和跨平台支持,简化了 AI Agent 的构建和部署流程。
主要功能点
- 通用 LLM 支持: 兼容 ChatGPT、Anthropic、Ollama 和 OpenAI 兼容的模型。
- 跨平台: 支持 Windows、MacOS 和 Linux 操作系统。
- MCP 协议支持: 作为 MCP Host 应用程序,支持 Model Context Protocol,实现 AI Agent 的集成。
- MCP 服务器集成: 能够集成和管理外部 MCP 服务器,扩展数据访问和处理能力。
- 多语言支持: 支持简体中文、繁体中文和英文界面。
- 高级 API 管理: 支持多 API 密钥和模型切换。
- 自定义指令: 允许用户设置个性化的系统提示词,定制 AI 行为。
- 直观的聊天界面: 提供实时的上下文管理和用户友好的聊天交互设计。
安装步骤
- 访问 Dive GitHub Release 页面 下载最新版本的 Dive 应用程序,选择适合您操作系统的版本(.exe for Windows, .dmg for macOS, .AppImage for Linux)。
- Windows 用户: 下载 .exe 文件后直接运行安装程序,Dive 已预装 Python 和 Node.js 环境。
- MacOS/Linux 用户: 下载 .dmg 或 .AppImage 文件后,您需要手动安装 Python 和 Node.js 环境 (推荐使用 npx uvx 进行安装)。 对于 Linux AppImage 版本,可能需要使用 'chmod +x' 命令使其可执行。
- 按照安装向导的提示完成 Dive 应用程序的安装。
服务器配置
Dive 应用程序内置了一个默认的 Echo MCP Server 用于测试。要连接和使用更强大的 MCP 工具,您需要在 Dive 的设置中配置 MCP 服务器。配置信息为 JSON 格式,示例如下:
{ "mcpServers": { "echo": { // Echo Server 配置 "enabled": true, // 启用 Echo Server "command": "node", // 启动命令,这里使用 Node.js "args": [ // 命令参数 "path/to/dive/resources/scripts/echo.cjs" // Echo Server 脚本路径 (请替换为您的实际路径,如果需要) ] }, "fetch": { // Fetch 工具 Server 配置示例 "enabled": true, "command": "uvx", // 使用 uvx 运行 fetch server "args": [ "mcp-server-fetch", // fetch server 命令 "--ignore-robots-txt" // 忽略 robots.txt 规则 ] }, "youtubedl": { // Youtube-dl 工具 Server 配置示例 "enabled": true, "command": "npx", // 使用 npx 运行 youtubedl server "args": [ "@kevinwatt/yt-dlp-mcp" // youtubedl server 包名 ] }, "YOUR_SERVER_NAME": { // 自定义 SSE Server 配置示例 (替换 YOUR_SERVER_NAME) "enabled": true, // 启用自定义 SSE Server "transport": "sse", // 使用 SSE 传输协议 "url": "YOUR_SSE_SERVER_URL" // 您的 SSE Server URL (请替换为您的实际 URL) } } }
配置说明:
- '"mcpServers"': 包含所有 MCP 服务器配置的对象。
- '"server_name"': 服务器名称,可以自定义,例如 "echo"、"fetch"、"youtubedl" 或 "YOUR_SERVER_NAME"。
- '"enabled"': 布尔值,'true' 表示启用该服务器,'false' 表示禁用。
- '"command"': 启动 MCP 服务器的命令,例如 "node"、"uvx"、"npx" 等。
- '"args"': 命令的参数数组,根据不同的 MCP 服务器和工具进行配置。
- '"transport"': 传输协议类型,例如 "command" (Stdio), "sse" (SSE), "websocket" (WebSocket)。
- '"url"': 当 'transport' 为 "sse" 或 "websocket" 时,指定 MCP 服务器的 URL。
基本使用方法
- 启动 Dive 应用程序。
- 在 Dive 应用程序的设置面板中,找到 "MCP Server" 或类似的配置选项。
- 根据您要使用的 MCP 工具,参考上述示例配置,填写相应的 JSON 配置信息。您可以启用内置的 Echo Server 进行测试,或者配置 "fetch"、"youtubedl" 等工具 Server,或者连接到您自己的 SSE Server。
- 确保配置中的 'command' 和 'args' 参数正确指向 MCP 服务器的可执行文件或脚本。
- 保存配置后,Dive 应用程序将尝试连接到配置的 MCP 服务器。
- 在 Dive 的聊天界面中,您可以与 LLM 进行对话。当 LLM 需要使用工具时,它将通过 MCP 协议调用已配置的 MCP 服务器提供的工具,从而实现更强大的功能,例如网页内容获取、YouTube 视频下载等。
关键词
LLM Host, AI Agent, 上下文服务, 工具集成, 桌面应用
信息
分类
桌面与硬件