项目简介 Presenton是一个功能强大的开源应用,旨在帮助用户通过AI快速生成高质量的演示文稿。它支持与多种大型语言模型(LLM)和图像生成服务集成,确保用户的数据隐私和控制权。Presenton不仅提供直观的用户界面,还具备API部署能力,允许用户将其作为团队的后端服务使用,并通过MCP服务器提供LLM上下文服务。

主要功能点

  • AI驱动的演示文稿生成: 用户只需提供主题或文档,即可自动生成演示文稿大纲和内容。
  • 本地运行与数据隐私: 整个生成过程在用户设备本地进行,确保数据隐私和安全性,不依赖云服务。
  • 多模型支持: 兼容OpenAI、Google Gemini、Anthropic Claude等主流LLM,并支持通过Ollama集成本地开源模型。
  • 丰富的图像生成: 可选择DALL-E 3、Gemini Flash、Pexels或Pixabay等服务生成高质量图片。
  • 自定义模板与主题: 允许用户使用HTML和Tailwind CSS创建无限的自定义演示文稿设计。
  • 导出与编辑: 支持将生成文稿导出为PPTX和PDF格式,并提供灵活的编辑功能,方便用户调整内容、图片、图表等。
  • API服务与MCP集成: 可作为API服务部署,并通过MCP(Model Context Protocol)服务器向LLM客户端提供资源、工具和可定制的Prompt交互模式。

安装步骤 Presenton推荐使用Docker进行部署,这大大简化了安装过程:

  1. 安装Docker: 确保您的系统已安装Docker。如果未安装,请访问Docker官网下载并安装适合您操作系统的版本。
  2. 拉取并运行Presenton Docker镜像:
    • Linux/MacOS (Bash/Zsh Shell):
      docker run -it --name presenton -p 5000:80 -v "./app_data:/app_data" ghcr.io/presenton/presenton:latest
    • Windows (PowerShell):
      docker run -it --name presenton -p 5000:80 -v "${PWD}\app_data:/app_data" ghcr.io/presenton/presenton:latest
    • 启用GPU支持 (NVIDIA GPU用户): 如果您希望使用本地Ollama模型并利用GPU加速,请先确保安装了NVIDIA Container Toolkit,然后在运行Docker命令时添加'--gpus=all'参数:
      docker run -it --name presenton --gpus=all -p 5000:80 -e LLM="ollama" -e OLLAMA_MODEL="llama3.2:3b" -e IMAGE_PROVIDER="pexels" -e PEXELS_API_KEY="您的Pexels API Key" -e CAN_CHANGE_KEYS="false" -v "./app_data:/app_data" ghcr.io/presenton/presenton:latest
  3. 访问Presenton: 在浏览器中打开'http://localhost:5000'即可开始使用Presenton。

服务器配置 (MCP客户端使用) Presenton内部包含一个MCP服务器实现,用于向兼容MCP协议的LLM客户端提供上下文和功能。当Presenton通过Docker启动后,其MCP服务器将在后台运行,并可以通过特定的网络地址进行访问。

MCP客户端可以通过以下JSON格式配置连接到Presenton的MCP服务器。请注意,这里的'command'和'args'是用于指示MCP客户端如何启动或连接到服务器,而不是Presenton自身的启动命令。

{
  "server_name": "Presenton MCP Server",
  "description": "提供AI演示文稿生成、内容管理、图像/图标工具等上下文服务的MCP服务器。",
  "command": "python",
  "args": [
    "path/to/presenton/servers/fastapi/mcp_server.py",
    "--port",
    "8001"
  ],
  "notes": "此配置信息用于MCP客户端连接。'command'和'args'应指向Presenton仓库中负责启动MCP服务器的'mcp_server.py'脚本及其所需的端口参数。MCP服务器默认监听端口8001。请确保Docker容器的端口映射正确,以便MCP客户端可以访问到此端口。"
}

基本使用方法

  1. 启动Presenton: 按照上述安装步骤运行Docker命令启动Presenton。
  2. 配置API Keys (可选): 首次使用或需要更换LLM/图片提供商时,您可以在Presenton的用户界面中配置OpenAI、Google、Anthropic、Pexels、Pixabay等服务的API Key。您也可以通过Docker的环境变量预先配置。
  3. 生成演示文稿:
    • 在Presenton的Web界面中,输入您的演示文稿主题(Prompt)。
    • 选择所需的幻灯片数量和语言。
    • (可选)上传相关文档,AI将基于文档内容生成文稿。
    • 选择一个演示文稿主题模板。
    • 点击“生成”按钮,Presenton将开始生成文稿大纲和幻灯片内容。
  4. 编辑与调整: 生成完成后,您可以在Web界面中预览、编辑和调整每张幻灯片的内容、图片、排版等。
  5. 导出: 编辑完成后,您可以选择将演示文稿导出为PPTX或PDF格式。
  6. 作为API服务使用: Presenton也提供了RESTful API接口,您可以集成到自己的应用中,通过编程方式生成演示文稿。详见官方文档。

信息

分类

AI与计算