项目简介

AI虚拟助理平台是一个全面用于创建和管理AI虚拟助理的解决方案。它集成了检索增强生成(RAG)的知识库、可通过Model Context Protocol (MCP) 扩展的工具,并提供了安全防护和生产级别的可扩展性。

主要功能点

  • 智能体管理: 创建和配置具备不同能力的AI智能体。
  • 知识集成: 支持上传文档、构建可搜索知识库,实现RAG问答。
  • 实时聊天: 提供流式对话体验,并保存会话历史记录。
  • 工具生态: 内置多种工具,并支持通过MCP服务器集成自定义外部功能。
  • 安全控制: 内置安全措施和内容过滤机制。

安装步骤

本地开发环境(Docker Compose)

  1. 导航到本地部署目录:'cd deploy/local'
  2. 使用Docker Compose启动所有服务:'make compose-up'
  3. 或分步启动:
    • 启动数据库:'podman compose up -d' (或 'docker-compose up -d')
    • 启动后端:'cd ../../backend && python -m venv venv && source venv/bin/activate && pip install -r requirements.txt && alembic upgrade head && uvicorn main:app --reload &'
    • 启动前端:'cd ../frontend && npm install && npm run dev'
  4. 访问应用:前端 'http://localhost:5173',API 'http://localhost:8000',API文档 'http://localhost:8000/docs'。

集群部署(Kubernetes/OpenShift)

  1. 导航到集群部署目录:'cd deploy/cluster'
  2. 通过交互式提示安装:'make install NAMESPACE=your-namespace'
  3. 或设置环境变量后安装:'export NAMESPACE=ai-virtual-agent && export HF_TOKEN=your-huggingface-token && make install'
  4. 详细安装指南请参考仓库中的 'INSTALLING.md'。

MCP服务器启动示例(作为平台工具的一部分)

该平台集成了多种MCP服务器作为其工具生态的一部分。以下是两个典型的MCP服务器示例及其启动方式:

  • Web商店MCP服务器:

    • 这个MCP服务器充当Web商店API的适配器,将其功能(如商品查询、添加、订单处理)暴露为LLM可调用的工具。
    • 启动前,请确保 'STORE_SERVER_URL' 环境变量已配置为Web商店API后端地址(例如:'http://localhost:8001',这个Web商店API由 'mcpservers/mcp_webstore/store/main.py' 提供)。
    • 启动命令:在项目根目录执行 'python mcpservers/mcp_webstore/webstore.py'。默认将在端口 '8001' 启动,使用SSE传输协议。
  • 数据库直连MCP服务器:

    • 这个MCP服务器直接与数据库交互,提供商品管理和订单处理功能。
    • 启动前,请确保 'DATABASE_URL' 环境变量已配置正确的PostgreSQL数据库连接信息(例如:'postgresql+asyncpg://myuser:[email protected]:5432/store_db')。
    • 启动命令:在项目根目录执行 'python mcpservers/mcp_dbstore/store.py'。默认将在端口 '8002' 启动,使用SSE传输协议。

服务器配置示例(供MCP客户端连接用)

为了让MCP客户端能够与上述MCP服务器建立连接,需要提供以下配置信息:

  • Web商店MCP服务器配置:
    {
      "server_name": "WebStoreMCP",
      "description": "一个提供商品查询、添加、移除和订单处理功能的MCP服务器,通过调用外部Web商店API实现。",
      "command": "python",
      "args": ["mcpservers/mcp_webstore/webstore.py"],
      "transport": "sse",
      "port": 8001
    }
  • 数据库直连MCP服务器配置:
    {
      "server_name": "DBStoreMCP",
      "description": "一个直接访问数据库,提供商品管理和订单处理功能的MCP服务器。",
      "command": "python",
      "args": ["mcpservers/mcp_dbstore/store.py"],
      "transport": "sse",
      "port": 8002
    }
    请注意:'command' 中的脚本路径和 'port' 需要根据您的实际部署环境和启动命令进行调整。如果通过Docker容器部署,'command' 和 'args' 会有所不同,'port' 也可能是容器内部端口,需要进行端口映射。

基本使用方法

  1. 启动平台: 按照“本地开发环境”或“集群部署”步骤启动AI虚拟助理平台。
  2. 部署MCP服务器: 根据需要启动相应的MCP工具服务器(例如Web商店或数据库直连MCP服务器)。
  3. 创建智能体: 通过平台的前端用户界面('http://localhost:5173')创建和配置AI智能体。
  4. 集成工具: 在智能体配置中,将已启动的MCP服务器作为工具添加到智能体。平台会自动发现LlamaStack中注册的MCP工具组。
  5. 开始对话: 与配置好的智能体进行实时聊天,智能体将利用您集成的工具和知识库来执行任务并提供响应。

信息

分类

AI与计算