基于 Model Context Protocol (MCP) 的本地后端服务,向 LLM 客户端以标准化的 JSON-RPC 方式提供上下文信息和功能。核心职责包括托管与管理资源/数据、注册并执行工具、定义和渲染 Prompt 模板,并通过 JSON-RPC 与客户端通信。实现了图片生成工作流的多提供商支持(MeiGen、OpenAI 兼容接口、本地 ComfyUI),并具备资源上传、提示库、提示增强、工作流管理等功能,支持通过 STDIO 传输与 Claude Code / OpenClaw 等客户端进行交互。