项目简介

LacyLights AI集成服务器('lacylights-mcp')是LacyLights剧场灯光控制系统的核心AI组件。它作为一个MCP (Model Context Protocol) 服务器运行,能够与Claude等AI助手进行通信,将剧场灯光控制的复杂性抽象化,为AI提供上下文,并执行AI生成的指令。通过该服务器,AI可以辅助完成灯光分析、场景生成、脚本分析和序列优化等任务。

主要功能点

  • 灯具分析: 查询和解析灯光设备的详细功能和参数,帮助AI理解设备能力。
  • 场景生成: 基于剧本上下文和艺术意图,通过AI能力自动创建符合情境的灯光场景。
  • 剧本分析: 从剧本中提取关键的灯光提示和时刻,为灯光设计提供智能建议。
  • 提示序列管理: 智能生成并优化完整的灯光提示序列,简化操作流程。
  • RAG系统: 结合向量匹配技术,为智能灯光建议提供增强型检索能力,提高建议的准确性。
  • AI集成: 通过标准化的MCP协议与各种AI助手(如Claude)无缝对接,扩展系统的智能边界。

安装步骤

以下是手动设置LacyLights AI集成服务器的步骤:

  1. 克隆主仓库: 首先,克隆 'lacylights' 主仓库,这会包含 'lacylights-mcp' 子仓库。
    git clone https://github.com/bbernstein/lacylights.git
    cd lacylights
  2. 进入AI集成服务器目录:
    cd lacylights-mcp
  3. 安装依赖: 安装项目所需的所有Node.js依赖。
    npm install
  4. 配置环境变量: 复制示例环境变量文件并编辑,以配置AI服务的API密钥。
    cp .env.example .env
    然后,使用文本编辑器打开 '.env' 文件,添加你的 OPENAI_API_KEY 或其他AI服务所需的API密钥。
  5. 构建并启动服务器: 编译TypeScript代码并启动MCP服务器。
    npm run build
    npm start
    服务器将启动,并等待MCP客户端(AI助手)的连接。

服务器配置

MCP客户端(如Claude)需要配置如何连接到此MCP服务器。以下是一个示例JSON配置结构,你需要根据你的实际部署路径和AI平台的要求进行填写。

{
  "server_name": "LacyLights AI集成服务器",
  "command": "node",
  "args": ["/path/to/your/lacylights/lacylights-mcp/dist/index.js"],
  "description": "LacyLights AI集成服务器,提供AI赋能的剧场灯光设计、场景生成和脚本分析能力。",
  "environment": {
    "OPENAI_API_KEY": "YOUR_OPENAI_API_KEY"
  }
}

配置字段说明:

  • 'server_name': 用于标识此MCP服务器的名称,方便在AI客户端中识别。
  • 'command': 启动MCP服务器所使用的命令。对于Node.js应用,通常是 'node'。
  • 'args': 传递给 'command' 的参数列表。这里应填写 'lacylights-mcp' 项目编译后的主文件路径,例如 '/path/to/your/lacylights/lacylights-mcp/dist/index.js'。请务必替换为您系统中 'dist/index.js' 的实际完整路径。
  • 'description': 服务器的简要功能描述。
  • 'environment': 一个可选的JSON对象,用于设置MCP服务器运行所需的环境变量,例如各种AI服务的API密钥(如 'OPENAI_API_KEY')。请替换为您的实际密钥。

基本使用方法

一旦LacyLights AI集成服务器启动并配置到你的AI助手(如Claude)中,AI助手就可以通过MCP协议与服务器进行通信。你可以向AI助手提出关于灯光设计、场景生成或剧本分析的请求,AI助手会调用MCP服务器提供的功能来完成这些任务,并与LacyLights核心系统('lacylights-node')交互以实现具体的灯光控制。

信息

分类

AI与计算