项目简介

Vectra MCP服务器是基于Model Context Protocol (MCP) 构建的应用后端。它将与一个独立的Vectra知识库后端API进行交互,并通过标准化的MCP JSON-RPC协议向兼容的LLM客户端提供访问和管理Vectra知识库的能力。

主要功能点

本项目通过MCP向LLM客户端提供以下主要工具:

  • 创建知识库集合: 允许LLM客户端在Vectra中创建新的知识库集合。
  • 列出知识库集合: 获取Vectra中所有现有知识库集合的列表。
  • 批量嵌入文本: 将多段文本内容及相关元数据批量嵌入到Vectra中进行向量化。
  • 批量嵌入文件: 读取本地文件内容,并将其批量嵌入到Vectra中。
  • 添加到集合: 将已嵌入的文件(通过其ID引用)关联到指定的知识库集合。
  • 列出集合中的文件: 查看特定知识库集合中包含的所有文件。
  • 查询集合: 在指定的知识库集合中执行混合搜索(向量+关键词),支持图搜索增强,查找与查询文本相关的文档或信息。
  • 删除文件: 从Vectra中删除指定的文件及其相关的嵌入信息。

这些工具使得LLM能够通过与此MCP服务器交互,实现对外部Vectra知识库的数据存取和利用。

安装步骤

  1. 确保您已安装 Node.js 和 npm。
  2. 克隆本仓库到您的本地机器。
  3. 在项目根目录打开终端。
  4. 运行以下命令安装依赖:
    npm install
  5. 运行以下命令构建项目:
    npm run build
    这将在 'build' 目录下生成可执行的JavaScript文件。

服务器配置

要让MCP客户端连接并使用此服务器,您需要在客户端配置中指定启动此服务器的命令。配置通常是一个JSON对象,包含服务器的名称、启动命令及其参数。

您需要提供以下信息给MCP客户端:

  • 服务器名称: 'vectra-mcp-server' (用于标识此服务器)
  • 启动命令: 'node' (Node.js 运行时)
  • 命令参数: 'build/index.js' (MCP服务器的入口文件)

重要: 此服务器依赖于两个环境变量来连接到实际的Vectra API 后端:

  • 'VECTRA_API_URL': 您的Vectra API 的基础URL(例如:'http://localhost:3000/api/v1/vectra')
  • 'VECTRA_API_KEY': 用于认证您的Vectra API 请求的密钥。

您需要在MCP客户端配置中,通过环境变量的方式将 'VECTRA_API_URL' 和 'VECTRA_API_KEY' 提供给服务器进程。具体的配置方式取决于您的MCP客户端。

基本使用方法

成功启动Vectra MCP服务器并由兼容的LLM客户端连接后,LLM客户端会自动发现服务器提供的工具列表 ('list_tools')。然后,LLM可以根据其任务和对用户输入的分析,构造JSON-RPC请求调用特定的工具('call_tool'),例如调用 'query_collection' 工具查询知识库。服务器接收到请求后,将执行相应的操作(例如调用Vectra API),并将结果(成功响应或错误信息)以MCP标准格式返回给LLM客户端,供LLM进行处理和生成回复。

信息

分类

AI与计算