项目简介
Vectra MCP服务器是基于Model Context Protocol (MCP) 构建的应用后端。它将与一个独立的Vectra知识库后端API进行交互,并通过标准化的MCP JSON-RPC协议向兼容的LLM客户端提供访问和管理Vectra知识库的能力。
主要功能点
本项目通过MCP向LLM客户端提供以下主要工具:
- 创建知识库集合: 允许LLM客户端在Vectra中创建新的知识库集合。
- 列出知识库集合: 获取Vectra中所有现有知识库集合的列表。
- 批量嵌入文本: 将多段文本内容及相关元数据批量嵌入到Vectra中进行向量化。
- 批量嵌入文件: 读取本地文件内容,并将其批量嵌入到Vectra中。
- 添加到集合: 将已嵌入的文件(通过其ID引用)关联到指定的知识库集合。
- 列出集合中的文件: 查看特定知识库集合中包含的所有文件。
- 查询集合: 在指定的知识库集合中执行混合搜索(向量+关键词),支持图搜索增强,查找与查询文本相关的文档或信息。
- 删除文件: 从Vectra中删除指定的文件及其相关的嵌入信息。
这些工具使得LLM能够通过与此MCP服务器交互,实现对外部Vectra知识库的数据存取和利用。
安装步骤
- 确保您已安装 Node.js 和 npm。
- 克隆本仓库到您的本地机器。
- 在项目根目录打开终端。
- 运行以下命令安装依赖:
npm install - 运行以下命令构建项目:
这将在 'build' 目录下生成可执行的JavaScript文件。npm run build
服务器配置
要让MCP客户端连接并使用此服务器,您需要在客户端配置中指定启动此服务器的命令。配置通常是一个JSON对象,包含服务器的名称、启动命令及其参数。
您需要提供以下信息给MCP客户端:
- 服务器名称: 'vectra-mcp-server' (用于标识此服务器)
- 启动命令: 'node' (Node.js 运行时)
- 命令参数: 'build/index.js' (MCP服务器的入口文件)
重要: 此服务器依赖于两个环境变量来连接到实际的Vectra API 后端:
- 'VECTRA_API_URL': 您的Vectra API 的基础URL(例如:'http://localhost:3000/api/v1/vectra')
- 'VECTRA_API_KEY': 用于认证您的Vectra API 请求的密钥。
您需要在MCP客户端配置中,通过环境变量的方式将 'VECTRA_API_URL' 和 'VECTRA_API_KEY' 提供给服务器进程。具体的配置方式取决于您的MCP客户端。
基本使用方法
成功启动Vectra MCP服务器并由兼容的LLM客户端连接后,LLM客户端会自动发现服务器提供的工具列表 ('list_tools')。然后,LLM可以根据其任务和对用户输入的分析,构造JSON-RPC请求调用特定的工具('call_tool'),例如调用 'query_collection' 工具查询知识库。服务器接收到请求后,将执行相应的操作(例如调用Vectra API),并将结果(成功响应或错误信息)以MCP标准格式返回给LLM客户端,供LLM进行处理和生成回复。
信息
分类
AI与计算