使用说明

项目简介

Luma MCP Server 是一个基于 Model Context Protocol (MCP) 构建的服务器应用,它将 Luma AI 的视频生成 API 服务以 MCP 协议的形式提供给 LLM 客户端。通过部署此服务器,LLM 应用可以方便地调用 Luma AI 的强大功能,例如根据文本生成视频、根据图像生成视频、扩展现有视频以及视频插帧等。

主要功能点

  • 文本生成视频 (generate_video): 根据文本描述生成全新的视频内容。
  • 图像生成视频 (generate_video_from_image): 以给定的图像为起始帧,并根据文本描述生成视频。
  • 视频扩展 (extend_video): 基于已有的视频片段,根据文本描述延续视频内容。
  • 视频插帧 (interpolate_videos): 在两个视频片段之间创建平滑的过渡效果。
  • 标准 MCP 协议: 采用 JSON-RPC over Stdio 通信,易于集成到各种支持 MCP 协议的 LLM 客户端。

安装步骤

  1. 安装 Node.js 和 npm: 确保你的环境中已安装 Node.js 和 npm 包管理器。
  2. 安装 Luma MCP Server 包: 在你的终端中运行以下命令安装 '@sunwood-ai-labs/luma-mcp-server' 包:
    npm install @sunwood-ai-labs/luma-mcp-server

服务器配置

为了让 MCP 客户端能够连接到 Luma MCP Server,你需要提供以下配置信息。这些信息通常配置在 MCP 客户端的应用设置中。

{
  "serverName": "Luma MCP Server",
  "command": "luma-mcp-server",
  "args": []
}
  • 'serverName': 服务器的名称,可以自定义,例如 "Luma MCP Server"。
  • 'command': 启动服务器的命令。如果全局安装了 '@sunwood-ai-labs/luma-mcp-server' 包,则可以直接使用 'luma-mcp-server' 命令。
  • 'args': 启动命令的参数,此服务器默认无需额外参数。

重要提示: 在启动服务器之前,请务必配置 Luma AI API 密钥。你需要访问 Luma AI Developer Portal 获取 API 密钥,并将其设置为名为 'LUMA_API_KEY' 的环境变量。例如,在 Linux/macOS 环境下,你可以在终端中使用 'export LUMA_API_KEY=你的API密钥' 命令设置环境变量。

基本使用方法

  1. 获取 Luma AI API 密钥: 访问 Luma AI Developer Portal 并注册以获取 API 密钥。
  2. 设置环境变量: 将你获取的 API 密钥设置为 'LUMA_API_KEY' 环境变量。
  3. 启动 MCP 服务器: 在终端中运行 'luma-mcp-server' 命令启动服务器。服务器将通过 Stdio 监听 MCP 请求。
  4. 配置 MCP 客户端: 在你的 LLM 客户端中,配置上述的服务器连接信息(serverName, command, args)。
  5. 调用工具: 通过 MCP 客户端,你可以调用服务器提供的工具,例如 'generate_video',并根据工具的参数要求提供相应的参数,例如文本描述 prompt。具体的工具参数和使用方法可以参考仓库 'README.md' 文件中 “使用可能なツール” 章节的说明。

信息

分类

AI与计算