项目简介

这是一个基于 Model Context Protocol (MCP) 构建的服务器应用,它允许支持MCP的LLM(大型语言模型)客户端(如Claude Desktop)通过标准的协议交互,调用外部能力来创建和运行Processing草图(sketches),从而实现AI驱动的创意编程和艺术创作。

主要功能点

  • AI驱动的草图创建与运行: 接收AI助手生成的Processing代码,并在本地运行。
  • 自动保存: 自动将每次创建的草图保存到指定位置,方便管理。
  • 灵活配置: 支持通过环境变量或客户端配置指定Processing可执行文件的路径和草图保存目录。
  • 简化的工具接口: 为AI助手提供清晰的工具定义,方便其调用。

安装步骤

  1. 准备环境:
    • 确保已安装 Python 3.8 或更高版本。
    • 确保已安装 Processing 创意编程环境。
    • 安装 'uv' 包管理器 ('pip install uv') 或使用 'pip'。
  2. 克隆仓库:
    git clone https://github.com/twelve2five/processing-mcp-server.git
    cd processing-mcp-server
  3. 安装依赖:
    uv pip install fastmcp
    # 或使用 pip
    pip install fastmcp

服务器配置

Processing MCP服务器需要通过MCP客户端(例如Claude Desktop)来启动和通信。您需要在客户端的配置文件中添加本服务器的启动信息。

通常,这涉及编辑客户端的配置文件(例如Claude Desktop的 'claude_desktop_config.json' 文件),在 'mcpServers' 部分添加一个新的服务器条目。该条目需要包含以下信息:

  • 服务器名称 (server name): 给服务器起一个易于识别的名称,例如 '"processing"'。
  • 启动命令 (command): 指定用来启动服务器脚本的可执行文件,通常是 'uv' 或 'python'。
  • 启动参数 (args): 提供传递给启动命令的参数,通常包括 'run' (如果使用 'uv') 和 Processing MCP 服务器主脚本文件的完整路径(例如 '/path/to/processing-mcp-server/processing_mcp_server.py')。
  • 环境变量 (env, 可选): 您可以在这里设置 'PROCESSING_PATH'(Processing可执行文件路径)和 'PROCESSING_SAVE_LOCATION'(草图保存目录)环境变量来覆盖服务器的默认配置。请根据您的操作系统和安装位置填写正确的路径。

完成配置后,请重启您的MCP客户端使配置生效。

基本使用方法

配置完成后,您就可以直接在支持该MCP服务器的AI客户端中通过自然语言与AI助手互动,让它为您创建和运行Processing草图。

例如,您可以尝试发出以下指令:

  • "创建一个Processing草图,画一个不断弹跳的球。"
  • "写一个Processing程序,生成一个粒子系统跟随鼠标移动。"
  • "做一个简单的Processing小游戏,比如贪吃蛇。"

AI助手会理解您的请求,生成相应的Processing代码,并通过内部调用本MCP服务器提供的工具来执行代码并显示结果。

关键词

Processing, 创意编程, AI绘画, LLM工具集成

信息

分类

AI与计算