项目简介

Ollama-RAG-Sync 是一个全面的检索增强生成(RAG)系统,集成Ollama进行文档处理、向量存储和智能搜索。其MCP服务器组件是整个系统的核心服务之一,专门为兼容MCP协议的LLM客户端提供标准化的上下文信息访问和功能调用能力,特别是暴露了系统的文档搜索功能作为可调用的工具。

主要功能点

该项目通过MCP服务器向LLM客户端提供以下核心功能:

  • 本地文档搜索工具: 允许LLM客户端通过标准化接口,对Ollama-RAG-Sync系统中已处理和向量化的本地文档库执行相似度搜索。
  • 文本块级搜索工具: 除了文档级搜索,还提供搜索文档中的具体文本块(Chunks)的功能,帮助LLM更精准地定位信息。
  • 标准化接口: 使用Model Context Protocol (MCP) 标准,确保与任何兼容MCP的LLM客户端或AI助手应用无缝集成。

安装步骤

安装相对简单,主要通过PowerShell脚本完成:

  1. 克隆仓库: 克隆 Ollama-RAG-Sync 的GitHub仓库到本地。
    git clone https://github.com/Ollama-RAG-Sync/Ollama-RAG-Sync.git
  2. 进入目录: 进入克隆下来的仓库目录。
    cd Ollama-RAG-Sync
  3. 运行安装脚本: 执行Setup-RAG.ps1脚本,指定安装路径。
    .\Setup-RAG.ps1 -InstallPath "C:\Your\Install\Path"
    (请将 '"C:\Your\Install\Path"' 替换为你希望安装的实际路径)

服务器配置

此MCP服务器通过StdIO协议与客户端通信。对于支持MCP的LLM客户端应用,您需要配置如何启动这个服务器进程。

  • 启动命令: MCP客户端需要配置的启动命令是项目安装路径下的 'Start-RAG.ps1' 脚本的完整路径。
  • 参数: 'Start-RAG.ps1' 脚本本身会启动所有必需的组件(包括MCP服务器),通常不需要MCP客户端额外传递参数给这个启动脚本。
  • 配置示例: 在MCP客户端的配置中,您需要指定类似以下的结构,指明服务器的名称、启动命令和参数(请根据实际安装路径填写命令)。
    {
      "server name": "OllamaRAGSync", // 服务器的唯一名称
      "command": "C:\\Your\\Install\\Path\\Start-RAG.ps1", // Start-RAG.ps1 脚本的完整路径
      "args": [] // 启动脚本的命令行参数(通常为空)
      // 可能还需要配置其他如环境变量 (env) 等,取决于您的特定MCP客户端的要求
    }

基本使用方法

一旦通过 '.\Start-RAG.ps1' 脚本启动了包括MCP服务器在内的所有Ollama-RAG-Sync组件:

  1. 添加并处理文档: 使用项目的PowerShell脚本或API(如 '.\FileTracker\Add-Folder.ps1' 和 '.\Processor\Process-Collection.ps1')将您的本地文档添加到系统中进行处理和向量化。
  2. 连接LLM客户端: 启动兼容MCP的LLM客户端应用,并确保已正确配置启动此Ollama-RAG-Sync MCP服务器的命令。
  3. 调用工具: LLM客户端会自动发现MCP服务器提供的工具(如 'localDocumentsSearch' 或 'localChunksSearch'),并在需要时(例如,当用户提问与本地文档相关的问题时)调用这些工具来检索相关信息作为上下文。

信息

分类

AI与计算