该项目是一个MCP(Model Context Protocol)服务器,旨在通过标准化协议将大型语言模型(LLM)连接到Vectara的可信赖检索增强生成(RAG)平台,允许LLM利用外部知识库获取更准确的信息。

主要功能点

  • Vectara问答 (ask_vectara): 允许LLM向Vectara发起RAG(检索增强生成)查询。服务器会根据查询从指定的Vectara语料库中检索相关信息,并使用Vectara的生成能力生成回答,减少幻觉。
  • Vectara搜索 (search_vectara): 允许LLM向Vectara发起纯语义搜索查询。服务器会从指定的Vectara语料库中检索匹配的文档片段,但不进行生成式回答,只返回搜索结果。

安装步骤

通过Python的包管理器pip安装非常简单:

pip install vectara-mcp

服务器配置

Vectara MCP服务器需要被支持MCP协议的客户端(如Claude Desktop或其他兼容客户端)启动。客户端需要配置如何启动这个服务器进程。您需要将类似以下的配置信息添加到您的MCP客户端配置文件中(具体位置和格式请参考您的MCP客户端文档,以下是一个示例 JSON 结构,常用于客户端配置的 'mcpServers' 部分):

{
  "YourServerName": {
    "command": "vectara-mcp",
    "args": []
  }
}
  • 'YourServerName': 您可以为这个服务器连接起一个易于识别的名称,例如 "Vectara RAG 服务"。
  • 'command': 启动Vectara MCP服务器的可执行命令。在通过pip安装后,通常是 'vectara-mcp'。
  • 'args': 启动命令所需的额外参数列表。对于vectara-mcp,通常不需要额外参数,保持空列表 '[]' 即可。

完成配置后,通常需要完全关闭并重新打开您的MCP客户端应用程序,以加载新的服务器配置。

基本使用方法

配置并重启MCP客户端后,如果连接成功,您应该能在客户端界面中看到Vectara MCP服务器提供的工具列表(通常会有特定的图标指示,例如锤子图标)。您可以在与LLM的对话中通过提及工具名称并提供必要参数来调用它们。服务器会要求您提供必要的认证信息(如Vectara API密钥)和要使用的语料库键。

示例调用方式(具体语法可能因客户端而异):

  • 进行RAG问答:'ask-vectara [您的查询内容]' (客户端或服务器会提示您提供API密钥和语料库键)
  • 进行纯搜索:'search-vectara [您的查询内容]' (客户端或服务器会提示您提供API密钥和语料库键)

在首次使用工具时,LLM客户端可能会自动识别工具所需的参数(如 'api_key' 和 'corpus_keys'),并询问您提供这些信息。

信息

分类

AI与计算