使用说明
项目简介
Unity MCP Ollama 集成服务器是一个基于 Model Context Protocol (MCP) 构建的应用后端,旨在通过本地大型语言模型 (LLM) 实现对 Unity 编辑器的自然语言控制和自动化。它扩展了 'justinpbarnett/unity-mcp' 框架,使其能够与本地 Ollama 服务器协同工作,允许开发者通过自然语言指令自动化资源管理、场景控制、材质编辑、脚本集成以及编辑器操作等 Unity 工作流程。
主要功能点
- 本地LLM驱动: 利用本地 Ollama 服务器和预训练的 LLM 模型,无需云端 API 或互联网连接即可工作。
- Unity 编辑器控制: 通过自然语言指令,自动化 Unity 编辑器的各项功能,如资源创建、场景编辑、对象操作、脚本管理等。
- MCP协议标准: 基于 MCP 协议进行通信,确保与兼容 MCP 客户端的互操作性。
- 扩展性: 易于扩展和定制,可以根据需要添加新的工具和功能。
- 隐私保护: 所有数据处理和 LLM 推理都在本地进行,保障用户数据隐私。
安装步骤
-
前提条件:
- Unity 2020.3 LTS 或更高版本
- Python 3.10 或更高版本
- 已安装并运行的 Ollama
- 已通过 Ollama 下载兼容的 LLM 模型 (例如 Llama3, Mistral 等)
-
Unity 包安装:
- 打开 Unity Package Manager ('Window > Package Manager')
- 点击 '+' 按钮,选择 'Add package from git URL'
- 输入仓库 Git URL: 'https://github.com/ZundamonnoVRChatkaisetu/unity-mcp-ollama.git'
-
Python 环境配置:
- 导航到 Unity 项目中的 Python 目录 (通常在 Package 导入后位于 'Packages/unity-mcp-ollama/Python')
- 安装 Python 依赖:
# 可选:创建虚拟环境 (推荐) python -m venv venv # 激活虚拟环境 # Windows: venv\Scripts\activate # macOS/Linux: source venv/bin/activate # 安装依赖(使用 editable 模式安装当前目录) pip install -e .
-
Ollama 设置:
- 确保 Ollama 已安装并运行,并且已下载所需的 LLM 模型,例如执行 'ollama pull llama3'。
-
配置 MCP 服务器:
- 在 Unity 编辑器中打开 Unity MCP 窗口 ('Window > Unity MCP')
- 在窗口中配置 Ollama 连接设置 (模型名称、主机、端口等)。
-
启动 MCP 服务器:
- 点击 Unity MCP 窗口中的 "Start Server" 按钮。
- 服务器将尝试连接 Unity 编辑器和 Ollama 服务器。
服务器配置
MCP 客户端连接 Unity MCP Ollama 集成服务器时,需要配置服务器的启动命令和参数。以下是基于仓库信息生成的服务器配置,以 JSON 格式提供:
{ "serverName": "UnityMCP-Ollama", "command": "python", "args": [ "Python/server.py" ], "description": "Unity MCP Server with Ollama Integration", "transport": "stdio" }
配置参数说明:
- 'serverName': 服务器的名称,可以自定义,用于在 MCP 客户端中标识服务器。
- 'command': 启动服务器的命令,这里是 'python',假设 Python 可执行文件已添加到系统 PATH 环境变量中。如果 Python 路径不是系统默认,请填写 Python 可执行文件的完整路径。
- 'args': 传递给启动命令的参数,这里是 Python 服务器脚本的相对路径 'Python/server.py'。该路径相对于 Unity 项目的根目录,或者 Package 导入后的 'Packages/unity-mcp-ollama' 目录。
- 'description': 服务器的描述信息,可自定义。
- 'transport': 服务器使用的传输协议,这里是 'stdio',表示标准输入输出流。
注意:
- 由于该 MCP 服务器使用 'stdio' 传输协议,客户端和服务器通过标准输入输出进行通信,因此 不需要配置服务器端口。
- Ollama 服务器的连接配置(主机、端口、模型名称等)是在 Unity 编辑器窗口中配置的,并保存在 'Python/config.py' 文件中。
基本使用方法
- 启动服务器: 按照上述 "启动 MCP 服务器" 步骤确保服务器成功运行。
- 打开 Unity MCP 窗口: ('Window > Unity MCP')。
- 自然语言交互: 在 Unity MCP 窗口的聊天窗口中输入自然语言指令,例如: "创建一个红色的立方体,位置在 (0, 1, 0)"。
- 指令执行: 服务器会将自然语言指令发送给本地 Ollama 服务器进行处理,Ollama 生成相应的 MCP 命令,服务器解析并执行这些命令来控制 Unity 编辑器。
- 查看结果: 操作结果将反馈在 Unity 编辑器中,并在聊天窗口中显示执行状态和 LLM 的响应。
示例指令:
- "创建一个名为 'MyCube' 的红色立方体"
- "将场景视图移动到位置 (5, 5, -10) 并看向原点"
- "导入模型文件 'Assets/Models/MyModel.fbx' 到 'Assets/ImportedModels' 目录"
- "播放游戏"
- "保存当前场景"
通过自然语言指令,用户可以方便地控制 Unity 编辑器,提高开发效率。
信息
分类
开发者工具