项目简介
AI虚拟助理平台是一个全面用于创建和管理AI虚拟助理的解决方案。它集成了检索增强生成(RAG)的知识库、可通过Model Context Protocol (MCP) 扩展的工具,并提供了安全防护和生产级别的可扩展性。
主要功能点
- 智能体管理: 创建和配置具备不同能力的AI智能体。
- 知识集成: 支持上传文档、构建可搜索知识库,实现RAG问答。
- 实时聊天: 提供流式对话体验,并保存会话历史记录。
- 工具生态: 内置多种工具,并支持通过MCP服务器集成自定义外部功能。
- 安全控制: 内置安全措施和内容过滤机制。
安装步骤
本地开发环境(Docker Compose)
- 导航到本地部署目录:'cd deploy/local'
- 使用Docker Compose启动所有服务:'make compose-up'
- 或分步启动:
- 启动数据库:'podman compose up -d' (或 'docker-compose up -d')
- 启动后端:'cd ../../backend && python -m venv venv && source venv/bin/activate && pip install -r requirements.txt && alembic upgrade head && uvicorn main:app --reload &'
- 启动前端:'cd ../frontend && npm install && npm run dev'
- 访问应用:前端 'http://localhost:5173',API 'http://localhost:8000',API文档 'http://localhost:8000/docs'。
集群部署(Kubernetes/OpenShift)
- 导航到集群部署目录:'cd deploy/cluster'
- 通过交互式提示安装:'make install NAMESPACE=your-namespace'
- 或设置环境变量后安装:'export NAMESPACE=ai-virtual-agent && export HF_TOKEN=your-huggingface-token && make install'
- 详细安装指南请参考仓库中的 'INSTALLING.md'。
MCP服务器启动示例(作为平台工具的一部分)
该平台集成了多种MCP服务器作为其工具生态的一部分。以下是两个典型的MCP服务器示例及其启动方式:
-
Web商店MCP服务器:
- 这个MCP服务器充当Web商店API的适配器,将其功能(如商品查询、添加、订单处理)暴露为LLM可调用的工具。
- 启动前,请确保 'STORE_SERVER_URL' 环境变量已配置为Web商店API后端地址(例如:'http://localhost:8001',这个Web商店API由 'mcpservers/mcp_webstore/store/main.py' 提供)。
- 启动命令:在项目根目录执行 'python mcpservers/mcp_webstore/webstore.py'。默认将在端口 '8001' 启动,使用SSE传输协议。
-
数据库直连MCP服务器:
- 这个MCP服务器直接与数据库交互,提供商品管理和订单处理功能。
- 启动前,请确保 'DATABASE_URL' 环境变量已配置正确的PostgreSQL数据库连接信息(例如:'postgresql+asyncpg://myuser:[email protected]:5432/store_db')。
- 启动命令:在项目根目录执行 'python mcpservers/mcp_dbstore/store.py'。默认将在端口 '8002' 启动,使用SSE传输协议。
服务器配置示例(供MCP客户端连接用)
为了让MCP客户端能够与上述MCP服务器建立连接,需要提供以下配置信息:
- Web商店MCP服务器配置:
{ "server_name": "WebStoreMCP", "description": "一个提供商品查询、添加、移除和订单处理功能的MCP服务器,通过调用外部Web商店API实现。", "command": "python", "args": ["mcpservers/mcp_webstore/webstore.py"], "transport": "sse", "port": 8001 } - 数据库直连MCP服务器配置:
请注意:'command' 中的脚本路径和 'port' 需要根据您的实际部署环境和启动命令进行调整。如果通过Docker容器部署,'command' 和 'args' 会有所不同,'port' 也可能是容器内部端口,需要进行端口映射。{ "server_name": "DBStoreMCP", "description": "一个直接访问数据库,提供商品管理和订单处理功能的MCP服务器。", "command": "python", "args": ["mcpservers/mcp_dbstore/store.py"], "transport": "sse", "port": 8002 }
基本使用方法
- 启动平台: 按照“本地开发环境”或“集群部署”步骤启动AI虚拟助理平台。
- 部署MCP服务器: 根据需要启动相应的MCP工具服务器(例如Web商店或数据库直连MCP服务器)。
- 创建智能体: 通过平台的前端用户界面('http://localhost:5173')创建和配置AI智能体。
- 集成工具: 在智能体配置中,将已启动的MCP服务器作为工具添加到智能体。平台会自动发现LlamaStack中注册的MCP工具组。
- 开始对话: 与配置好的智能体进行实时聊天,智能体将利用您集成的工具和知识库来执行任务并提供响应。
信息
分类
AI与计算