该项目是一个MCP(Model Context Protocol)服务器,旨在通过标准化协议将大型语言模型(LLM)连接到Vectara的可信赖检索增强生成(RAG)平台,允许LLM利用外部知识库获取更准确的信息。
主要功能点
- Vectara问答 (ask_vectara): 允许LLM向Vectara发起RAG(检索增强生成)查询。服务器会根据查询从指定的Vectara语料库中检索相关信息,并使用Vectara的生成能力生成回答,减少幻觉。
- Vectara搜索 (search_vectara): 允许LLM向Vectara发起纯语义搜索查询。服务器会从指定的Vectara语料库中检索匹配的文档片段,但不进行生成式回答,只返回搜索结果。
安装步骤
通过Python的包管理器pip安装非常简单:
pip install vectara-mcp
服务器配置
Vectara MCP服务器需要被支持MCP协议的客户端(如Claude Desktop或其他兼容客户端)启动。客户端需要配置如何启动这个服务器进程。您需要将类似以下的配置信息添加到您的MCP客户端配置文件中(具体位置和格式请参考您的MCP客户端文档,以下是一个示例 JSON 结构,常用于客户端配置的 'mcpServers' 部分):
{ "YourServerName": { "command": "vectara-mcp", "args": [] } }
- 'YourServerName': 您可以为这个服务器连接起一个易于识别的名称,例如 "Vectara RAG 服务"。
- 'command': 启动Vectara MCP服务器的可执行命令。在通过pip安装后,通常是 'vectara-mcp'。
- 'args': 启动命令所需的额外参数列表。对于vectara-mcp,通常不需要额外参数,保持空列表 '[]' 即可。
完成配置后,通常需要完全关闭并重新打开您的MCP客户端应用程序,以加载新的服务器配置。
基本使用方法
配置并重启MCP客户端后,如果连接成功,您应该能在客户端界面中看到Vectara MCP服务器提供的工具列表(通常会有特定的图标指示,例如锤子图标)。您可以在与LLM的对话中通过提及工具名称并提供必要参数来调用它们。服务器会要求您提供必要的认证信息(如Vectara API密钥)和要使用的语料库键。
示例调用方式(具体语法可能因客户端而异):
- 进行RAG问答:'ask-vectara [您的查询内容]' (客户端或服务器会提示您提供API密钥和语料库键)
- 进行纯搜索:'search-vectara [您的查询内容]' (客户端或服务器会提示您提供API密钥和语料库键)
在首次使用工具时,LLM客户端可能会自动识别工具所需的参数(如 'api_key' 和 'corpus_keys'),并询问您提供这些信息。
信息
分类
AI与计算