使用说明

项目简介

blender-open-mcp 项目基于 Model Context Protocol (MCP),旨在构建一个桥梁,使得用户可以使用自然语言通过本地AI模型 Ollama 来控制 3D 建模软件 Blender。该项目包含一个 Blender 插件(MCP客户端)和一个独立的 Python MCP 服务器。用户可以通过 MCP 客户端向 MCP 服务器发送指令,服务器解析指令并控制 Blender 执行相应的 3D 操作,例如创建、修改、删除对象,应用材质,渲染图像,以及从 PolyHaven 下载资源等。

主要功能点

  • 自然语言控制Blender: 通过文本提示词,调用本地 AI 模型控制 Blender 执行各种 3D 操作。
  • MCP 协议集成: 使用标准的 Model Context Protocol 进行客户端和服务器之间的结构化通信。
  • Ollama 支持: 方便地集成本地 Ollama 模型,支持多种模型如 llama3.2, Gemma3 等。
  • Blender 插件: 提供 Blender 插件,作为 MCP 客户端,与 MCP 服务器进行通信,并在 Blender 界面中集成 AI 控制功能。
  • PolyHaven 集成 (可选): 通过 AI 提示词,直接在 Blender 中下载和使用 PolyHaven 的 HDRIs, 纹理和模型等资源。
  • 丰富的 3D 操作工具: 提供一系列工具,支持获取场景和对象信息、创建和修改 3D 图元、应用材质、渲染图像等操作。

安装步骤

  1. 安装 Blender: 确保已安装 Blender 3.0 或更高版本。
  2. 安装 Ollama: 确保已安装 Ollama 并可以运行本地 AI 模型。
  3. 安装 Python 和 uv: 确保已安装 Python 3.10 或更高版本,并使用 'pip install uv' 安装 uv 包管理器。
  4. 克隆仓库: 使用 Git 克隆 'blender-open-mcp' 仓库到本地。
    git clone https://github.com/dhakalnirajan/blender-open-mcp.git
    cd blender-open-mcp
  5. 创建并激活虚拟环境 (推荐):
    uv venv
    source .venv/bin/activate   # Linux/macOS
    .venv\Scripts\activate  # Windows
  6. 安装 Python 依赖:
    uv pip install -e .
  7. 安装 Blender 插件:
    • 启动 Blender。
    • 进入 '编辑 -> 偏好设置 -> 插件'。
    • 点击 '安装...',选择仓库目录下的 'addon.py' 文件进行安装。
    • 启用 "Blender MCP" 插件。
  8. 下载 Ollama 模型 (如果未安装):
    ollama pull llama3.2

服务器配置

MCP 客户端 (例如支持 MCP 协议的 LLM 应用或本仓库的 'mcp' 命令行工具) 需要以下配置信息才能连接到 blender-open-mcp 服务器。

{
  "serverName": "BlenderMCP",
  "command": "blender-mcp",
  "args": []
  // 或使用 python 直接运行服务器脚本
  // "command": "python",
  // "args": ["src/blender_open_mcp/server.py"]
}

参数说明:

  • serverName: 服务器名称,可以自定义。
  • command: 启动 MCP 服务器的命令。可以直接使用安装后添加到环境变量的 'blender-mcp' 命令,或者使用 'python' 命令运行服务器脚本。
  • args: 启动命令的参数列表,默认为空。如果需要自定义服务器的 host, port, Ollama URL 或 Ollama 模型,可以在 'args' 中添加相应的参数。

可选参数 (添加到 args 列表中):

  • '--host': 指定 MCP 服务器监听的 host 地址,默认为 '0.0.0.0' (监听所有网络接口)。例如: '"--host", "127.0.0.1"' 限制只允许本地连接。
  • '--port': 指定 MCP 服务器监听的端口,默认为 '8000'。例如: '"--port", "8001"' 修改为 8001 端口。
  • '--ollama-url': 指定 Ollama 服务器的 URL,默认为 'http://localhost:11434'。例如: '"--ollama-url", "http://<your_ollama_server>:11434"' 如果 Ollama 服务器不在本地或端口不是默认值,需要修改此参数。
  • '--ollama-model': 指定默认使用的 Ollama 模型名称,默认为空,需要在运行时通过 'set_ollama_model' 工具设置。例如: '"--ollama-model", "llama3.2"' 设置默认模型为 llama3.2。

例如,如果需要修改端口为 8001,并指定 Ollama 模型为 Gemma3,则 args 配置如下:

{
  "serverName": "BlenderMCP",
  "command": "blender-mcp",
  "args": ["--port", "8001", "--ollama-model", "Gemma3"]
}

基本使用方法

  1. 启动 Ollama 服务器: 确保 Ollama 服务器在后台运行。
  2. 启动 MCP 服务器: 在命令行中执行 'blender-mcp' 命令或 'python src/blender_open_mcp/server.py' 命令启动 MCP 服务器。
  3. 启动 Blender 插件服务器: 打开 Blender,在 3D 视图侧边栏 (按 N 键打开) 中找到 "Blender MCP" 面板,点击 "Start MCP Server" 按钮启动 Blender 插件内置的客户端服务器。
  4. 使用 'mcp' 命令行工具 (或其他 MCP 客户端): 使用 'mcp' 命令行工具或者任何兼容 MCP 协议的客户端与 MCP 服务器进行交互。

常用 'mcp' 命令示例:

  • 发送 Prompt 消息:
    mcp prompt "创建一个名为 'my_cube' 的立方体。" --host http://localhost:8000
  • 调用工具获取场景信息:
    mcp tool get_scene_info --host http://localhost:8000
  • 调用工具渲染图像:
    mcp tool render_image --host http://localhost:8000 --params '{"file_path": "render_output.png"}'
  • 使用 PolyHaven 下载纹理并应用 (如果启用):
    mcp prompt "从 PolyHaven 下载一个木质纹理并应用到 'my_cube'。" --host http://localhost:8000

更多工具和使用方法请参考仓库 README 文档。

信息

分类

桌面与硬件