RAG Documentation MCP Server 使用说明
项目简介
RAG Documentation MCP Server 是一个实现了 Model Context Protocol (MCP) 的服务器,专注于为大型语言模型(LLM)客户端提供文档检索增强生成(Retrieval-Augmented Generation, RAG)能力。它通过集成向量数据库(Qdrant)和支持本地/云端 Embedding 模型(Ollama/OpenAI),使得 AI 助手能够利用文档知识库来提升回答质量和上下文相关性。
主要功能点
- 文档检索工具 (search_documentation): 使用自然语言查询在文档库中进行向量搜索,返回相关的文档片段及其来源信息,帮助 AI 助手找到支持其回答的证据。
- 文档源管理工具 (list_sources, remove_documentation): 允许列出和移除已添加到系统的文档来源,方便管理知识库内容。
- 文档入队和处理工具 (add_documentation, run_queue, list_queue, clear_queue): 支持将新的文档 URL 加入处理队列,自动下载、分块、向量化并索引文档,方便持续扩充知识库。可以查看、运行和清空处理队列,监控文档处理状态。
- URL 提取工具 (extract_urls): 从网页中提取所有链接,并可选择将这些链接添加到文档处理队列,用于发现和索引更多相关文档。
- Web 管理界面: 提供友好的 Web 界面,用于监控队列状态、管理文档源、测试搜索查询和查看系统状态。
安装步骤
- 安装 Docker (推荐): 为了简化部署,推荐使用 Docker 和 Docker Compose。请确保您的系统已安装 Docker 和 Docker Compose。
- 克隆仓库: 将仓库 'https://github.com/rahulretnan/mcp-ragdocs' 克隆到本地。
git clone https://github.com/rahulretnan/mcp-ragdocs cd mcp-ragdocs - 启动服务: 使用 Docker Compose 启动 MCP 服务器及其依赖的 Qdrant 向量数据库。
这将启动 RAG Documentation MCP Server 和 Qdrant 服务。docker-compose up -d
服务器配置
MCP 服务器需要配置在 MCP 客户端(如 Cline 或 Claude Desktop)中才能使用。以下是 Cline 客户端的配置示例,其他客户端配置方式类似。
在 Cline 客户端的 'cline_mcp_settings.json' 文件中,添加如下 server 配置:
{ "mcpServers": { "rag-docs": { // 服务器名称,可以自定义 "command": "node", // 启动命令,这里使用 node.js 运行时 "args": ["/path/to/your/mcp-ragdocs/build/index.js"], // 启动参数,指向服务器入口文件 "env": { // 环境变量配置 "EMBEDDING_PROVIDER": "ollama", // 默认使用 Ollama 本地 Embedding 服务 "EMBEDDING_MODEL": "nomic-embed-text", // Ollama 使用的模型,可选 "OPENAI_API_KEY": "your-api-key-here", // 当使用 OpenAI 作为 Fallback 时需要配置 OpenAI API Key "FALLBACK_PROVIDER": "openai", // 推荐配置 OpenAI 作为 Fallback Provider,提高稳定性 "FALLBACK_MODEL": "text-embedding-3-small", // Fallback Provider 使用的模型,可选 "QDRANT_URL": "http://localhost:6333" // Qdrant 向量数据库地址,Docker Compose 默认配置 }, "disabled": false, // 设为 false 启用该服务器 "autoApprove": [ // 自动允许客户端调用的工具列表 "search_documentation", "list_sources", "extract_urls", "remove_documentation", "list_queue", "run_queue", "clear_queue", "add_documentation" ] } } }
注意:
- 请将 '"/path/to/your/mcp-ragdocs/build/index.js"' 替换为 实际的 'mcp-ragdocs' 项目 'build/index.js' 文件的绝对路径。您可能需要先运行 'npm install' 和 'npm run build' 来构建项目。如果您使用 Docker Compose 部署,则无需手动构建,Docker 镜像已经包含了构建好的代码。
- 如果您希望使用 OpenAI 作为主要的 Embedding Provider 而不是 Ollama,请修改 'EMBEDDING_PROVIDER' 环境变量为 '"openai"' 并配置 'OPENAI_API_KEY'。
- 请确保 Ollama 服务已在本地运行,或者您已配置了有效的 OpenAI API Key。
基本使用方法
- 启动 MCP 服务器: 按照安装步骤启动 Docker Compose 服务后,MCP 服务器将在后台运行。
- 配置 MCP 客户端: 在 MCP 客户端(如 Cline 或 Claude Desktop)中配置上述服务器信息。
- 使用 AI 助手并调用工具: 在 MCP 客户端中,您可以像平常一样使用 AI 助手。当 AI 助手需要检索文档或执行文档管理操作时,它将自动调用 RAG Documentation MCP Server 提供的工具。例如,您可以指示 AI 助手 “在文档中搜索关于 XXX 的信息”,AI 助手将调用 'search_documentation' 工具来检索相关文档片段并用于生成更准确的回答。
- 访问 Web 界面 (可选): 您可以通过浏览器访问 'http://localhost:3030' (如果使用 Docker Compose 默认配置)来查看和管理文档队列、文档源和测试搜索功能。
通过 RAG Documentation MCP Server,您可以为您的 LLM 应用轻松集成文档知识库,提升 AI 助手在处理文档相关任务时的能力。
信息
分类
AI与计算