项目简介
FrevaGPT MCP后端是一个完整的AI助手服务系统,通过标准化的MCP协议为LLM客户端提供上下文信息和功能调用能力。
主要功能
- 智能对话管理:支持多轮对话和上下文记忆
- 文档检索(RAG):从资源库中智能搜索相关文档内容
- 代码执行引擎:在沙箱环境中安全执行Python代码
- 多模型支持:通过LiteLLM代理支持OpenAI、Ollama等多种模型
- 工具编排:通过MCP管理器统一调度RAG和代码解释器工具
- 持久化存储:支持MongoDB和本地文件双重存储
- 实时流式响应:支持SSE流式传输,实时显示代码执行结果和生成图像
安装部署
环境要求
- Podman或Docker
- MongoDB数据库
- Freva认证服务凭证
快速启动
- 配置环境变量(参考 '.env.example' 文件)
- 运行命令:'podman compose up --build'
- 服务启动后包括:
- FastAPI应用后端
- RAG MCP服务器
- 代码解释器MCP服务器
- LiteLLM代理服务
- Oollama本地模型服务
MCP服务器配置
MCP客户端需要配置以下服务器信息:
RAG服务器配置:
- 名称:'rag'
- 启动命令:'python src/tools/rag/server.py'
- 运行参数:端口8050,路径'/mcp'
- 提供文档检索和上下文提取功能
代码解释器服务器配置:
- 名称:'code'
- 启动命令:'python src/tools/code/server.py'
- 运行参数:端口8051,路径'/mcp'
基本使用
- 通过API端点进行对话交互
- 支持工具调用:文档检索和代码执行
- 提供线程管理和历史对话查询
开发模式
- 运行 './dev.sh up -d --build' 启动开发环境
- 使用 'scripts/dev_chat.py' 进行本地测试
- 通过Docker设备映射为Ollama提供GPU加速
信息
分类
网页与API