使用说明(简明、面向开发者操作):
-
项目简介 Veotools MCP 服务器是一个在 Veo Tools 代码库内实现的 MCP 服务端。它通过 FastMCP 框架将各种后端能力(如环境自检、模型列表、计划生成、视频生成与缓存管理等)暴露给 LLM 客户端。客户端可以通过 JSON-RPC 调用这些“工具”,以获得统一的上下文服务与功能入口。
-
主要功能点
- MCP 风格工具暴露:包括 preflight、version、list_models、plan_scenes、cache_*、generate_start、generate_get、generate_cancel 等接口,覆盖资源管理、计划生成、任务执行与查询等场景。
- 资源与缓存管理:提供从本地文件创建缓存、查询、列出和更新缓存的能力,方便高效复用资源。
- 计划与执行能力:支持 Gemini 生成计划的创建、获取与执行结果查询,便于将计划与实际渲染结果串联。
- 任务生命周期:通过后台任务与 JobStore 持久化实现生成任务的状态机,提供可观测的任务状态、进度与结果。
- 多传输协议支持:理论上支持包括 STDIO、SSE、WebSocket 等常见 MCP 传输模式,便于不同场景下的对接与流式交互。
- 独立服务器入口:可通过 veo-mcp 或 python -m veotools.server.mcp_server 启动,作为独立服务对外提供 API。
-
安装步骤
- 安装并启用 MCP 服务器依赖:
- pip 安装 Veo Tools 及 MCP 支持:pip install veotools[mcp]
- 启动服务器(三种常用方式之一):
- 方式 A(命令行):veo-mcp
- 方式 B(直接运行模块):python -m veotools.server.mcp_server
- 方式 C(按需自定义传输/端口等)请参考 FastMCP 的文档进行配置
- 服务器上线后,MCP 客户端即可通过 JSON-RPC 与之通信并调用暴露的工具。
- 安装并启用 MCP 服务器依赖:
-
服务器配置(MCP 客户端需要的配置信息,格式为 JSON;客户端不需要此信息,本节仅供理解服务器对外暴露能力的对接参数) { "server_name": "Veotools MCP Server", "command": "veo-mcp", "args": ["--transport", "stdio", "--port", "5000"], "description": "MCP 服务端,暴露 Veotools 的生成、计划、缓存、模型等能力给 LLM 客户端使用" } 说明:以上配置用于描述客户端如何连接与识别服务器名称、执行命令与参数。MCP 客户端实际连接时并不需要对 VeoTools 的实现细节代码,只需要知道服务器的名称、通信协议与入口。
-
基本使用方法
- 启动服务器后,LLM 客户端通过 MCP 进行调用,例如请求检查环境、获取可用模型、生成计划、提交并查询生成任务等。
- 通过 generate_start 提交生成任务后,可以使用 generate_get 查询任务进度与结果,支持取消任务的 generate_cancel。
- plan_scenes 提供 Gemini 生成计划的能力,客户端可以获取计划结果并可结合执行。
- caching 与模型列表等辅助能力,帮助 LLM 客户端在对话中做资源管理和能力自描述。
- 支持多种传输方式,开发者在对接时可选择最合适的传输协议,确保实时性与可靠性。
-
设计与注意事项
- 服务器端实现了一个较完整的 MCP 服务侧,结合 Veo Tools 的生成、缓存、计划等能力提供统一入口。
- 任务通过 JobStore 持久化,保证跨进程/跨会话的可观测性与可恢复性。
- 部署时请确保 FFmpeg/依赖、API Key、以及存储目录权限等环境就绪,以通过 preflight 的自检。
关键词(3-5 个,逗号分隔) 视频生成, 计划编排, 资源缓存, 面向模型的后端服务, 作业管理
分类ID 6
信息
分类
AI与计算