使用说明
项目简介
Luma MCP Server 是一个基于 Model Context Protocol (MCP) 构建的服务器应用,它将 Luma AI 的视频生成 API 服务以 MCP 协议的形式提供给 LLM 客户端。通过部署此服务器,LLM 应用可以方便地调用 Luma AI 的强大功能,例如根据文本生成视频、根据图像生成视频、扩展现有视频以及视频插帧等。
主要功能点
- 文本生成视频 (generate_video): 根据文本描述生成全新的视频内容。
- 图像生成视频 (generate_video_from_image): 以给定的图像为起始帧,并根据文本描述生成视频。
- 视频扩展 (extend_video): 基于已有的视频片段,根据文本描述延续视频内容。
- 视频插帧 (interpolate_videos): 在两个视频片段之间创建平滑的过渡效果。
- 标准 MCP 协议: 采用 JSON-RPC over Stdio 通信,易于集成到各种支持 MCP 协议的 LLM 客户端。
安装步骤
- 安装 Node.js 和 npm: 确保你的环境中已安装 Node.js 和 npm 包管理器。
- 安装 Luma MCP Server 包: 在你的终端中运行以下命令安装 '@sunwood-ai-labs/luma-mcp-server' 包:
npm install @sunwood-ai-labs/luma-mcp-server
服务器配置
为了让 MCP 客户端能够连接到 Luma MCP Server,你需要提供以下配置信息。这些信息通常配置在 MCP 客户端的应用设置中。
{ "serverName": "Luma MCP Server", "command": "luma-mcp-server", "args": [] }
- 'serverName': 服务器的名称,可以自定义,例如 "Luma MCP Server"。
- 'command': 启动服务器的命令。如果全局安装了 '@sunwood-ai-labs/luma-mcp-server' 包,则可以直接使用 'luma-mcp-server' 命令。
- 'args': 启动命令的参数,此服务器默认无需额外参数。
重要提示: 在启动服务器之前,请务必配置 Luma AI API 密钥。你需要访问 Luma AI Developer Portal 获取 API 密钥,并将其设置为名为 'LUMA_API_KEY' 的环境变量。例如,在 Linux/macOS 环境下,你可以在终端中使用 'export LUMA_API_KEY=你的API密钥' 命令设置环境变量。
基本使用方法
- 获取 Luma AI API 密钥: 访问 Luma AI Developer Portal 并注册以获取 API 密钥。
- 设置环境变量: 将你获取的 API 密钥设置为 'LUMA_API_KEY' 环境变量。
- 启动 MCP 服务器: 在终端中运行 'luma-mcp-server' 命令启动服务器。服务器将通过 Stdio 监听 MCP 请求。
- 配置 MCP 客户端: 在你的 LLM 客户端中,配置上述的服务器连接信息(serverName, command, args)。
- 调用工具: 通过 MCP 客户端,你可以调用服务器提供的工具,例如 'generate_video',并根据工具的参数要求提供相应的参数,例如文本描述 prompt。具体的工具参数和使用方法可以参考仓库 'README.md' 文件中 “使用可能なツール” 章节的说明。
信息
分类
AI与计算