项目简介

这是一个基于 Model Context Protocol (MCP) 实现的服务器端程序。它通过封装无界AI的开放能力,将AI绘画(文生图)和任务查询功能作为标准化的 MCP 工具提供给任何支持 MCP 的 LLM 客户端使用。

主要功能点

  • AI绘画 (文生图): 允许通过指定描述(Prompt)、模型、图片尺寸等参数,调用无界AI的接口生成图片。
  • 查询生成结果: 根据AI绘画任务返回的任务Key,查询任务的当前状态和最终结果(如图片URL)。

安装步骤

  1. 安装 Node.js: 确保您的系统已安装 Node.js (建议v18或更高版本)。
  2. 克隆仓库: 将本项目代码克隆到本地。
  3. 安装依赖: 在项目根目录打开终端,运行 'npm install' 安装所需的库。
  4. 配置 API Key:
    • 在项目根目录下创建 '.env' 文件。
    • 在 '.env' 文件中添加一行 'WUJIEAI_API_KEY=您的无界AI API Key'。
    • 将 '您的无界AI API Key' 替换为您在无界AI开放平台获取的API Key。

服务器配置 (供MCP客户端使用)

MCP 客户端需要知道如何启动此 MCP 服务器进程并与其建立连接。通常,这需要您在客户端的配置中指定以下信息:

  • 服务器名称 (name): 'wujie-ai-server' (这是此 MCP 服务器在协议中声明的身份名称)
  • 启动命令 (command): 'node' (指示客户端使用 'node' 命令来运行服务器脚本)
  • 命令参数 (args): '["dist/index.js"]' (指示客户端将 'dist/index.js' 作为参数传递给 'node' 命令来执行。请注意,实际部署时,您需要先运行 'npm run build' 生成 'dist' 目录。)
  • 传输协议 (transport): 'stdio' (表示服务器通过标准输入输出与客户端通信)

将这些信息配置到您的 MCP 客户端中,客户端即可通过启动并连接此进程来使用无界AI的能力。具体的配置格式和位置取决于您使用的 MCP 客户端。

基本使用方法

启动 MCP 客户端并确保其已配置并连接到此无界AI MCP 服务。LLM 客户端即可通过调用暴露的工具来执行操作:

  • 调用 'create_artwork' 工具: 提供 'prompt' (作画描述) 参数来发起文生图任务。可能还需要 'width'、'height'、'model' 等可选参数。工具调用成功后,通常会返回任务的关键信息(如任务Key和结果链接,或提示正在进行中)。
  • 调用 'query_artwork' 工具: 提供 'key' (任务Key) 参数来查询指定作画任务的状态和结果。

LLM 模型可以根据用户意图,决定何时调用哪个工具,并解析工具返回的信息与用户进行交互。

信息

分类

AI与计算