项目简介

LupAI Meinsvwissen MCP服务器是LupAI多智能体系统的核心后端服务之一,它专注于通过标准化的Model Context Protocol (MCP) 为大型语言模型(LLM)客户端提供上下文信息和功能。它托管和管理各种数据资源(如联邦学习文章、法律资源、词汇表等),并通过定义好的工具让LLM能够调用外部功能进行语义搜索和文本检索,从而增强LLM的知识和交互能力。

主要功能点

  • 语义搜索: 允许LLM根据自然语言查询对通用资源、法律资源和词汇表进行高效的语义搜索,返回最相关的文本片段。
  • 法律资源筛选: 支持在法律搜索中按德国特定地区(联邦州或司法管辖区)筛选结果。
  • 文本块检索: 根据唯一的ID检索特定的文本块,方便LLM获取详细上下文。
  • 工具调用限制: 内置工具调用限制机制,确保系统稳定运行。
  • 数据管理: 管理存储在Qdrant向量数据库中的文本数据,并通过RAG(检索增强生成)机制提供数据访问能力。

安装步骤

  1. 安装Make: 如果系统没有安装Make,请执行 'sudo apt install make'。
  2. 安装Docker: 遵循官方指南安装最新版本的Docker:Docker安装指南
  3. 克隆仓库并打开Dev容器:
    git clone https://github.com/aureka-team/lupai-meinsvwissen.git
    cd lupai-meinsvwissen
    code .
    在VS Code中,安装Dev Containers扩展,然后按F1打开命令面板,输入“Dev Containers”,选择“Reopen in Container”。
  4. 配置OpenAI API密钥: 在项目根目录创建 '.env' 文件,并添加您的OpenAI API密钥:
    OPENAI_API_KEY=your_openai_api_key_here
    将 'your_openai_api_key_here' 替换为实际的密钥。
  5. 启动Qdrant和Redis服务:
    make redis-start
    make qdrant-start
    Qdrant启动后,可以通过访问 http://localhost:6333/dashboard 查看其Web控制台。
  6. 初始化Qdrant数据集合: 在Redis和Qdrant都运行后,执行以下命令创建所需的数据集合:
    make create-qdrant-collections

服务器配置 (MCP客户端使用)

MCP客户端需要配置与LupAI Meinsvwissen MCP服务器建立连接。以下是客户端配置服务器连接时的关键信息,请根据实际部署环境调整 'host' 和 'port'。

{
  "name": "Meinsvwissen MCP server",
  "command": "make",
  "args": ["mcp-start"],
  "description": "LupAI Meinsvwissen MCP服务器提供联邦学习和法律文本的语义搜索与检索服务。",
  "host": "0.0.0.0",
  "port": 8000,
  "protocol": "streamable-http"
}
  • 'name': 服务器的唯一标识名称。
  • 'command': 启动MCP服务器的命令。
  • 'args': 启动命令的参数。
  • 'description': 服务器功能的简要描述。
  • 'host': MCP服务器监听的IP地址。
  • 'port': MCP服务器监听的端口。
  • 'protocol': MCP服务器使用的传输协议。

基本使用方法

在完成上述安装和配置后,您可以通过以下命令启动MCP服务器:

make mcp-start

MCP服务器将在后台运行,等待MCP客户端连接。您可以通过运行仓库提供的客户端测试脚本来验证MCP服务器的功能:

make test-chat

该测试脚本将启动一个交互式聊天界面,模拟LLM客户端与MCP服务器及多智能体系统进行交互,您可以输入查询,体验语义搜索和问答功能。

信息

分类

AI与计算