使用说明
项目简介
Comfy MCP Server 是一个基于 FastMCP 框架构建的应用后端,它允许用户通过 MCP 协议调用 ComfyUI 服务来生成图像。用户可以提供文本提示,服务器将调用 ComfyUI 生成图像并返回。
主要功能点
- 图像生成: 根据用户提供的文本提示,调用远程 ComfyUI 服务器生成图像。
- 提示词生成 (可选): 可以连接到 Ollama 服务器,根据主题生成图像生成提示词,辅助图像生成。
安装步骤
- 确保已安装 uv 包管理器。
- 使用 uvx 安装 comfy-mcp-server 及其依赖:
uvx mcp[cli]
服务器配置
MCP 客户端需要配置以下信息以连接到 Comfy MCP Server。请将以下 JSON 配置添加到您的 MCP 客户端配置中,并根据您的实际环境修改配置项。
{ "mcpServers": { "Comfy MCP Server": { "command": "/path/to/uvx", // 请替换为 uvx 的实际路径,例如 /home/user/.local/bin/uvx "args": [ "comfy-mcp-server" ], "env": { "COMFY_URL": "http://your-comfy-server-url:port", // 【必填】请替换为您的 ComfyUI 服务器的 URL,例如 http://192.168.1.100:8188 "COMFY_WORKFLOW_JSON_FILE": "/path/to/the/comfyui_workflow_export.json", // 【必填】请替换为 ComfyUI 工作流 JSON 文件的绝对路径,此文件需要从 ComfyUI 导出 "PROMPT_NODE_ID": "6", // 【必填】请替换为 ComfyUI 工作流中 Prompt 节点的 ID,请在 ComfyUI 界面中查看 "OUTPUT_NODE_ID": "9", // 【必填】请替换为 ComfyUI 工作流中 Output 节点的 ID,请在 ComfyUI 界面中查看 "OUTPUT_MODE": "file", // 【必填】可选 "url" 或 "file",指定图像输出模式,"file" 返回图像数据,"url" 返回图像 URL "OLLAMA_API_BASE": "http://your-ollama-server:11434", // 【可选】Ollama 服务器地址,如果需要使用 Ollama 生成提示词则配置 "PROMPT_LLM": "llama2" // 【可选】Ollama 模型名称,例如 llama2, 如果使用 Ollama 生成提示词则配置 } } } }
注意:
- 请务必根据您的 ComfyUI 工作流导出 JSON 文件,并配置 'COMFY_WORKFLOW_JSON_FILE' 指向该文件。
- 'PROMPT_NODE_ID' 和 'OUTPUT_NODE_ID' 需要根据您的 ComfyUI 工作流中的实际节点 ID 进行配置。您可以在 ComfyUI 界面中查看节点的 ID。
- 'OUTPUT_MODE' 建议设置为 'file' 以直接获取图像数据。如果设置为 'url',MCP 客户端将收到图像的 URL。
- 如果您希望使用 Ollama 生成图像提示词,请配置 'OLLAMA_API_BASE' 和 'PROMPT_LLM'。
基本使用方法
- 配置环境变量: 根据 "服务器配置" 中的 'env' 部分,在运行 Comfy MCP Server 的环境中设置相应的环境变量。
- 运行服务器: 在终端中执行以下命令启动 Comfy MCP Server:
uvx comfy-mcp-server - MCP 客户端调用: 使用 MCP 客户端连接到 Comfy MCP Server,并可以调用以下工具:
- 'generate_image(prompt: str, ctx: Context)': 根据提供的文本提示生成图像。
- 'generate_prompt(topic: str, ctx: Context)': (如果配置了 Ollama) 根据主题生成图像生成提示词。
信息
分类
AI与计算