项目简介

这是一个基于 Model Context Protocol (MCP) 构建的服务器,旨在增强大型语言模型(LLM)的能力。它通过与 Higress 的 'ai-search' 功能集成,为 LLM 提供访问实时网络信息和内部知识库的工具。当 LLM 客户端连接到此服务器后,LLM 可以通过调用服务器提供的搜索工具,获取LLM本身训练数据中没有的最新信息或特定领域知识。

主要功能点

  • 联网搜索能力: 通过调用 Higress,可以访问多种搜索引擎(如 Google, Bing, Quark),获取最新的网络信息,克服 LLM 知识时效性的限制。
  • 学术搜索能力: 支持对 Arxiv 等学术资源的搜索,方便 LLM 查找科学论文和研究资料。
  • 内部知识库搜索: 如果配置了内部知识库信息,LLM 可以利用此工具查询企业内部文档、手册等专属知识。
  • 作为LLM工具服务: 以 MCP 协议标准化的方式,向支持 MCP 的 LLM 客户端提供搜索功能,使搜索成为 LLM 能力的一部分。

安装步骤

  1. 安装 uv: 确保你的系统上安装了 'uv' 工具,这是安装 Python 依赖的高效方式。
    # 按照 uv 官方文档安装
    # 例如: curl -LO https://astral.sh/uv/install.sh && sh install.sh
  2. 配置 Higress: 需要一个已配置 'ai-search' 和 'ai-proxy' 插件的 Higress 环境。请参考 Higress 官方文档进行配置。
  3. 安装 MCP 服务器代码:
    • 方法 1 (推荐,通过 PyPI): 如果该项目已发布到 PyPI,可以使用 'uvx' 直接运行,无需手动下载代码。
    • 方法 2 (本地开发或未发布): 克隆此 GitHub 仓库到本地。
      git clone https://github.com/cr7258/higress-ai-search-mcp-server.git
      cd higress-ai-search-mcp-server
      然后使用 'uv' 安装依赖:
      uv sync

服务器配置

该 MCP 服务器需要通过环境变量进行配置。这些配置信息通常由 MCP 客户端在启动服务器进程时提供。

需要配置的环境变量包括:

  • 'HIGRESS_URL' (可选): Higress 服务的 URL,默认为 'http://localhost:8080/v1/chat/completions'。
  • 'MODEL' (必填): 用于搜索的 LLM 模型名称,例如 'qwen-turbo'。
  • 'INTERNAL_KNOWLEDGE_BASES' (可选): 内部知识库的描述信息,会体现在提供给 LLM 的工具说明中。

在配置 MCP 客户端时,你需要提供服务器的启动命令和参数。配置通常是一个 JSON 结构,例如:

{
  "mcpServers": {
    "higress-ai-search-mcp-server": {
      "command": "...", // 启动服务器的命令,根据你的安装方式确定 (uvx 或 uv run ...)
      "args": [...],    // 启动命令所需的参数
      "env": {        // 需要设置的环境变量
        "HIGRESS_URL": "http://localhost:8080/v1/chat/completions", // 根据实际Higress地址修改
        "MODEL": "qwen-turbo",                                   // **必填**,指定使用的LLM模型
        "INTERNAL_KNOWLEDGE_BASES": "员工手册, 公司政策文档"               // 可选,内部知识库描述
      }
    }
  }
}
  • 如果使用 'uvx' 方式安装和运行,'command' 通常是 '"uvx"','args' 是 '["higress-ai-search-mcp-server"]'。
  • 如果使用 'uv' 本地运行,'command' 通常是 '"uv"','args' 是 '["run", "path/to/your/cloned/repo/higress-ai-search-mcp-server"]'。

请将上述配置整合到你使用的 MCP 客户端的相应配置位置,并填写正确的路径和环境变量值。

基本使用方法

  1. 确保 Higress 环境已正确配置并运行。
  2. 在支持 MCP 的 LLM 客户端(如 Claude Desktop 或其他兼容客户端)中,按照客户端的说明添加并配置这个 Higress AI 搜索 MCP 服务器,填写上面提到的启动命令、参数和环境变量。
  3. 启动 LLM 客户端。客户端会自动连接并启动 MCP 服务器(如果尚未运行)。
  4. 在与 LLM 交互时,当你的问题涉及需要最新信息或特定知识(如当前事件、某个公司的最新情况、某个研究领域的进展、公司内部流程等)时,LLM 会根据其能力和工具描述,自动判断是否需要调用这个 AI 搜索工具来获取信息,然后将搜索结果整合到回复中。你无需直接操作搜索工具,交互是无缝的。

信息

分类

网页与API