RAG Documentation MCP Server 使用说明

项目简介

RAG Documentation MCP Server 是一个实现了 Model Context Protocol (MCP) 的服务器,专注于为大型语言模型(LLM)客户端提供文档检索增强生成(Retrieval-Augmented Generation, RAG)能力。它通过集成向量数据库(Qdrant)和支持本地/云端 Embedding 模型(Ollama/OpenAI),使得 AI 助手能够利用文档知识库来提升回答质量和上下文相关性。

主要功能点

  • 文档检索工具 (search_documentation): 使用自然语言查询在文档库中进行向量搜索,返回相关的文档片段及其来源信息,帮助 AI 助手找到支持其回答的证据。
  • 文档源管理工具 (list_sources, remove_documentation): 允许列出和移除已添加到系统的文档来源,方便管理知识库内容。
  • 文档入队和处理工具 (add_documentation, run_queue, list_queue, clear_queue): 支持将新的文档 URL 加入处理队列,自动下载、分块、向量化并索引文档,方便持续扩充知识库。可以查看、运行和清空处理队列,监控文档处理状态。
  • URL 提取工具 (extract_urls): 从网页中提取所有链接,并可选择将这些链接添加到文档处理队列,用于发现和索引更多相关文档。
  • Web 管理界面: 提供友好的 Web 界面,用于监控队列状态、管理文档源、测试搜索查询和查看系统状态。

安装步骤

  1. 安装 Docker (推荐): 为了简化部署,推荐使用 Docker 和 Docker Compose。请确保您的系统已安装 Docker 和 Docker Compose。
  2. 克隆仓库: 将仓库 'https://github.com/rahulretnan/mcp-ragdocs' 克隆到本地。
    git clone https://github.com/rahulretnan/mcp-ragdocs
    cd mcp-ragdocs
  3. 启动服务: 使用 Docker Compose 启动 MCP 服务器及其依赖的 Qdrant 向量数据库。
    docker-compose up -d
    这将启动 RAG Documentation MCP Server 和 Qdrant 服务。

服务器配置

MCP 服务器需要配置在 MCP 客户端(如 Cline 或 Claude Desktop)中才能使用。以下是 Cline 客户端的配置示例,其他客户端配置方式类似。

在 Cline 客户端的 'cline_mcp_settings.json' 文件中,添加如下 server 配置:

{
  "mcpServers": {
    "rag-docs": {  // 服务器名称,可以自定义
      "command": "node",  // 启动命令,这里使用 node.js 运行时
      "args": ["/path/to/your/mcp-ragdocs/build/index.js"], // 启动参数,指向服务器入口文件
      "env": {  // 环境变量配置
        "EMBEDDING_PROVIDER": "ollama", // 默认使用 Ollama 本地 Embedding 服务
        "EMBEDDING_MODEL": "nomic-embed-text", // Ollama 使用的模型,可选
        "OPENAI_API_KEY": "your-api-key-here", // 当使用 OpenAI 作为 Fallback 时需要配置 OpenAI API Key
        "FALLBACK_PROVIDER": "openai", // 推荐配置 OpenAI 作为 Fallback Provider,提高稳定性
        "FALLBACK_MODEL": "text-embedding-3-small", // Fallback Provider 使用的模型,可选
        "QDRANT_URL": "http://localhost:6333" // Qdrant 向量数据库地址,Docker Compose 默认配置
      },
      "disabled": false, // 设为 false 启用该服务器
      "autoApprove": [  // 自动允许客户端调用的工具列表
        "search_documentation",
        "list_sources",
        "extract_urls",
        "remove_documentation",
        "list_queue",
        "run_queue",
        "clear_queue",
        "add_documentation"
      ]
    }
  }
}

注意:

  • 请将 '"/path/to/your/mcp-ragdocs/build/index.js"' 替换为 实际的 'mcp-ragdocs' 项目 'build/index.js' 文件的绝对路径。您可能需要先运行 'npm install' 和 'npm run build' 来构建项目。如果您使用 Docker Compose 部署,则无需手动构建,Docker 镜像已经包含了构建好的代码。
  • 如果您希望使用 OpenAI 作为主要的 Embedding Provider 而不是 Ollama,请修改 'EMBEDDING_PROVIDER' 环境变量为 '"openai"' 并配置 'OPENAI_API_KEY'。
  • 请确保 Ollama 服务已在本地运行,或者您已配置了有效的 OpenAI API Key。

基本使用方法

  1. 启动 MCP 服务器: 按照安装步骤启动 Docker Compose 服务后,MCP 服务器将在后台运行。
  2. 配置 MCP 客户端: 在 MCP 客户端(如 Cline 或 Claude Desktop)中配置上述服务器信息。
  3. 使用 AI 助手并调用工具: 在 MCP 客户端中,您可以像平常一样使用 AI 助手。当 AI 助手需要检索文档或执行文档管理操作时,它将自动调用 RAG Documentation MCP Server 提供的工具。例如,您可以指示 AI 助手 “在文档中搜索关于 XXX 的信息”,AI 助手将调用 'search_documentation' 工具来检索相关文档片段并用于生成更准确的回答。
  4. 访问 Web 界面 (可选): 您可以通过浏览器访问 'http://localhost:3030' (如果使用 Docker Compose 默认配置)来查看和管理文档队列、文档源和测试搜索功能。

通过 RAG Documentation MCP Server,您可以为您的 LLM 应用轻松集成文档知识库,提升 AI 助手在处理文档相关任务时的能力。

信息

分类

AI与计算