使用说明
项目简介
blender-open-mcp 项目基于 Model Context Protocol (MCP),旨在构建一个桥梁,使得用户可以使用自然语言通过本地AI模型 Ollama 来控制 3D 建模软件 Blender。该项目包含一个 Blender 插件(MCP客户端)和一个独立的 Python MCP 服务器。用户可以通过 MCP 客户端向 MCP 服务器发送指令,服务器解析指令并控制 Blender 执行相应的 3D 操作,例如创建、修改、删除对象,应用材质,渲染图像,以及从 PolyHaven 下载资源等。
主要功能点
- 自然语言控制Blender: 通过文本提示词,调用本地 AI 模型控制 Blender 执行各种 3D 操作。
- MCP 协议集成: 使用标准的 Model Context Protocol 进行客户端和服务器之间的结构化通信。
- Ollama 支持: 方便地集成本地 Ollama 模型,支持多种模型如 llama3.2, Gemma3 等。
- Blender 插件: 提供 Blender 插件,作为 MCP 客户端,与 MCP 服务器进行通信,并在 Blender 界面中集成 AI 控制功能。
- PolyHaven 集成 (可选): 通过 AI 提示词,直接在 Blender 中下载和使用 PolyHaven 的 HDRIs, 纹理和模型等资源。
- 丰富的 3D 操作工具: 提供一系列工具,支持获取场景和对象信息、创建和修改 3D 图元、应用材质、渲染图像等操作。
安装步骤
- 安装 Blender: 确保已安装 Blender 3.0 或更高版本。
- 安装 Ollama: 确保已安装 Ollama 并可以运行本地 AI 模型。
- 安装 Python 和 uv: 确保已安装 Python 3.10 或更高版本,并使用 'pip install uv' 安装 uv 包管理器。
- 克隆仓库: 使用 Git 克隆 'blender-open-mcp' 仓库到本地。
git clone https://github.com/dhakalnirajan/blender-open-mcp.git cd blender-open-mcp - 创建并激活虚拟环境 (推荐):
uv venv source .venv/bin/activate # Linux/macOS .venv\Scripts\activate # Windows - 安装 Python 依赖:
uv pip install -e . - 安装 Blender 插件:
- 启动 Blender。
- 进入 '编辑 -> 偏好设置 -> 插件'。
- 点击 '安装...',选择仓库目录下的 'addon.py' 文件进行安装。
- 启用 "Blender MCP" 插件。
- 下载 Ollama 模型 (如果未安装):
ollama pull llama3.2
服务器配置
MCP 客户端 (例如支持 MCP 协议的 LLM 应用或本仓库的 'mcp' 命令行工具) 需要以下配置信息才能连接到 blender-open-mcp 服务器。
{ "serverName": "BlenderMCP", "command": "blender-mcp", "args": [] // 或使用 python 直接运行服务器脚本 // "command": "python", // "args": ["src/blender_open_mcp/server.py"] }
参数说明:
- serverName: 服务器名称,可以自定义。
- command: 启动 MCP 服务器的命令。可以直接使用安装后添加到环境变量的 'blender-mcp' 命令,或者使用 'python' 命令运行服务器脚本。
- args: 启动命令的参数列表,默认为空。如果需要自定义服务器的 host, port, Ollama URL 或 Ollama 模型,可以在 'args' 中添加相应的参数。
可选参数 (添加到 args 列表中):
- '--host': 指定 MCP 服务器监听的 host 地址,默认为 '0.0.0.0' (监听所有网络接口)。例如: '"--host", "127.0.0.1"' 限制只允许本地连接。
- '--port': 指定 MCP 服务器监听的端口,默认为 '8000'。例如: '"--port", "8001"' 修改为 8001 端口。
- '--ollama-url': 指定 Ollama 服务器的 URL,默认为 'http://localhost:11434'。例如: '"--ollama-url", "http://<your_ollama_server>:11434"' 如果 Ollama 服务器不在本地或端口不是默认值,需要修改此参数。
- '--ollama-model': 指定默认使用的 Ollama 模型名称,默认为空,需要在运行时通过 'set_ollama_model' 工具设置。例如: '"--ollama-model", "llama3.2"' 设置默认模型为 llama3.2。
例如,如果需要修改端口为 8001,并指定 Ollama 模型为 Gemma3,则 args 配置如下:
{ "serverName": "BlenderMCP", "command": "blender-mcp", "args": ["--port", "8001", "--ollama-model", "Gemma3"] }
基本使用方法
- 启动 Ollama 服务器: 确保 Ollama 服务器在后台运行。
- 启动 MCP 服务器: 在命令行中执行 'blender-mcp' 命令或 'python src/blender_open_mcp/server.py' 命令启动 MCP 服务器。
- 启动 Blender 插件服务器: 打开 Blender,在 3D 视图侧边栏 (按 N 键打开) 中找到 "Blender MCP" 面板,点击 "Start MCP Server" 按钮启动 Blender 插件内置的客户端服务器。
- 使用 'mcp' 命令行工具 (或其他 MCP 客户端): 使用 'mcp' 命令行工具或者任何兼容 MCP 协议的客户端与 MCP 服务器进行交互。
常用 'mcp' 命令示例:
- 发送 Prompt 消息:
mcp prompt "创建一个名为 'my_cube' 的立方体。" --host http://localhost:8000 - 调用工具获取场景信息:
mcp tool get_scene_info --host http://localhost:8000 - 调用工具渲染图像:
mcp tool render_image --host http://localhost:8000 --params '{"file_path": "render_output.png"}' - 使用 PolyHaven 下载纹理并应用 (如果启用):
mcp prompt "从 PolyHaven 下载一个木质纹理并应用到 'my_cube'。" --host http://localhost:8000
更多工具和使用方法请参考仓库 README 文档。
信息
分类
桌面与硬件