项目简介

FrevaGPT MCP后端是一个完整的AI助手服务系统,通过标准化的MCP协议为LLM客户端提供上下文信息和功能调用能力。

主要功能

  • 智能对话管理:支持多轮对话和上下文记忆
  • 文档检索(RAG):从资源库中智能搜索相关文档内容
  • 代码执行引擎:在沙箱环境中安全执行Python代码
  • 多模型支持:通过LiteLLM代理支持OpenAI、Ollama等多种模型
  • 工具编排:通过MCP管理器统一调度RAG和代码解释器工具
  • 持久化存储:支持MongoDB和本地文件双重存储
  • 实时流式响应:支持SSE流式传输,实时显示代码执行结果和生成图像

安装部署

环境要求

  • Podman或Docker
  • MongoDB数据库
  • Freva认证服务凭证

快速启动

  1. 配置环境变量(参考 '.env.example' 文件)
  2. 运行命令:'podman compose up --build'
  3. 服务启动后包括:
    • FastAPI应用后端
    • RAG MCP服务器
    • 代码解释器MCP服务器
  • LiteLLM代理服务
  • Oollama本地模型服务

MCP服务器配置

MCP客户端需要配置以下服务器信息:

RAG服务器配置

  • 名称:'rag'
  • 启动命令:'python src/tools/rag/server.py'
  • 运行参数:端口8050,路径'/mcp'
  • 提供文档检索和上下文提取功能

代码解释器服务器配置

  • 名称:'code'
  • 启动命令:'python src/tools/code/server.py'
  • 运行参数:端口8051,路径'/mcp'

基本使用

  1. 通过API端点进行对话交互
  2. 支持工具调用:文档检索和代码执行
  3. 提供线程管理和历史对话查询

开发模式

  • 运行 './dev.sh up -d --build' 启动开发环境
  • 使用 'scripts/dev_chat.py' 进行本地测试
  • 通过Docker设备映射为Ollama提供GPU加速

信息

分类

网页与API