使用说明

项目简介

Unity MCP Ollama 集成服务器是一个基于 Model Context Protocol (MCP) 构建的应用后端,旨在通过本地大型语言模型 (LLM) 实现对 Unity 编辑器的自然语言控制和自动化。它扩展了 'justinpbarnett/unity-mcp' 框架,使其能够与本地 Ollama 服务器协同工作,允许开发者通过自然语言指令自动化资源管理、场景控制、材质编辑、脚本集成以及编辑器操作等 Unity 工作流程。

主要功能点

  • 本地LLM驱动: 利用本地 Ollama 服务器和预训练的 LLM 模型,无需云端 API 或互联网连接即可工作。
  • Unity 编辑器控制: 通过自然语言指令,自动化 Unity 编辑器的各项功能,如资源创建、场景编辑、对象操作、脚本管理等。
  • MCP协议标准: 基于 MCP 协议进行通信,确保与兼容 MCP 客户端的互操作性。
  • 扩展性: 易于扩展和定制,可以根据需要添加新的工具和功能。
  • 隐私保护: 所有数据处理和 LLM 推理都在本地进行,保障用户数据隐私。

安装步骤

  1. 前提条件:

    • Unity 2020.3 LTS 或更高版本
    • Python 3.10 或更高版本
    • 已安装并运行的 Ollama
    • 已通过 Ollama 下载兼容的 LLM 模型 (例如 Llama3, Mistral 等)
  2. Unity 包安装:

    • 打开 Unity Package Manager ('Window > Package Manager')
    • 点击 '+' 按钮,选择 'Add package from git URL'
    • 输入仓库 Git URL: 'https://github.com/ZundamonnoVRChatkaisetu/unity-mcp-ollama.git'
  3. Python 环境配置:

    • 导航到 Unity 项目中的 Python 目录 (通常在 Package 导入后位于 'Packages/unity-mcp-ollama/Python')
    • 安装 Python 依赖:
      # 可选:创建虚拟环境 (推荐)
      python -m venv venv
      
      # 激活虚拟环境
      # Windows:
      venv\Scripts\activate
      # macOS/Linux:
      source venv/bin/activate
      
      # 安装依赖(使用 editable 模式安装当前目录)
      pip install -e .
  4. Ollama 设置:

    • 确保 Ollama 已安装并运行,并且已下载所需的 LLM 模型,例如执行 'ollama pull llama3'。
  5. 配置 MCP 服务器:

    • 在 Unity 编辑器中打开 Unity MCP 窗口 ('Window > Unity MCP')
    • 在窗口中配置 Ollama 连接设置 (模型名称、主机、端口等)。
  6. 启动 MCP 服务器:

    • 点击 Unity MCP 窗口中的 "Start Server" 按钮。
    • 服务器将尝试连接 Unity 编辑器和 Ollama 服务器。

服务器配置

MCP 客户端连接 Unity MCP Ollama 集成服务器时,需要配置服务器的启动命令和参数。以下是基于仓库信息生成的服务器配置,以 JSON 格式提供:

{
  "serverName": "UnityMCP-Ollama",
  "command": "python",
  "args": [
    "Python/server.py"
  ],
  "description": "Unity MCP Server with Ollama Integration",
  "transport": "stdio"
}

配置参数说明:

  • 'serverName': 服务器的名称,可以自定义,用于在 MCP 客户端中标识服务器。
  • 'command': 启动服务器的命令,这里是 'python',假设 Python 可执行文件已添加到系统 PATH 环境变量中。如果 Python 路径不是系统默认,请填写 Python 可执行文件的完整路径。
  • 'args': 传递给启动命令的参数,这里是 Python 服务器脚本的相对路径 'Python/server.py'。该路径相对于 Unity 项目的根目录,或者 Package 导入后的 'Packages/unity-mcp-ollama' 目录。
  • 'description': 服务器的描述信息,可自定义。
  • 'transport': 服务器使用的传输协议,这里是 'stdio',表示标准输入输出流。

注意:

  • 由于该 MCP 服务器使用 'stdio' 传输协议,客户端和服务器通过标准输入输出进行通信,因此 不需要配置服务器端口
  • Ollama 服务器的连接配置(主机、端口、模型名称等)是在 Unity 编辑器窗口中配置的,并保存在 'Python/config.py' 文件中。

基本使用方法

  1. 启动服务器: 按照上述 "启动 MCP 服务器" 步骤确保服务器成功运行。
  2. 打开 Unity MCP 窗口: ('Window > Unity MCP')。
  3. 自然语言交互: 在 Unity MCP 窗口的聊天窗口中输入自然语言指令,例如: "创建一个红色的立方体,位置在 (0, 1, 0)"。
  4. 指令执行: 服务器会将自然语言指令发送给本地 Ollama 服务器进行处理,Ollama 生成相应的 MCP 命令,服务器解析并执行这些命令来控制 Unity 编辑器。
  5. 查看结果: 操作结果将反馈在 Unity 编辑器中,并在聊天窗口中显示执行状态和 LLM 的响应。

示例指令:

  • "创建一个名为 'MyCube' 的红色立方体"
  • "将场景视图移动到位置 (5, 5, -10) 并看向原点"
  • "导入模型文件 'Assets/Models/MyModel.fbx' 到 'Assets/ImportedModels' 目录"
  • "播放游戏"
  • "保存当前场景"

通过自然语言指令,用户可以方便地控制 Unity 编辑器,提高开发效率。

信息

分类

开发者工具