项目简介

Convoworks GPT 是一个 WordPress 插件,它扩展了 Convoworks 框架的功能,使其能够集成 GPT(Generative Pre-trained Transformer)模型,并作为 MCP(Model Context Protocol)服务器运行。该插件允许用户在 Convoworks 的可视化工作流中构建复杂的 AI 助手服务,并通过标准的 MCP 协议将这些服务暴露给兼容的 LLM(大型语言模型)客户端。

主要功能点

  • MCP 服务器实现: 将 Convoworks 服务转换为一个完整的 MCP 服务器实例。
  • 工具 (Tools) 支持: 允许 LLM 客户端调用在 Convoworks 服务中定义的工具,例如通过内置组件或过滤器暴露 WordPress REST API。
  • Prompt 模板 (Prompts) 支持: 支持定义和渲染可重用的 Prompt 模板,供 LLM 客户端获取和使用。
  • 资源 (Resources) 框架: 提供资源托管和访问的能力(目前基础框架已实现,资源列表功能已具备)。
  • 多种协议支持: 原生支持 SSE (Server-Sent Events) 传输协议,并通过外部代理(如 mcp-proxy)支持 Stdio 等其他协议。
  • 会话管理: 处理 MCP 客户端连接和会话状态。
  • Convoworks 工作流集成: 利用 Convoworks 强大的低代码/无代码工作流编辑器来定义 AI 服务的逻辑、工具、Prompt 和上下文处理。

安装步骤

  1. 安装 Convoworks WP 插件: Convoworks GPT 插件依赖于 Convoworks WP 插件。请首先下载并安装激活 Convoworks WP
  2. 安装 Convoworks GPT 插件: 下载 Convoworks GPT 插件的 ZIP 文件(通常可在 GitHub 的 Releases 页面找到)。在 WordPress 后台的“插件” -> “安装插件”页面,点击“上传插件”,选择下载的 ZIP 文件并安装。安装完成后,请激活插件。
  3. 创建或导入服务: 在 WordPress 后台的 Convoworks WP 面板,创建一个新的服务。为了快速开始,可以选择一个预制的模板,例如“MCP Server Example”模板。
  4. 配置服务: 在新创建的服务编辑器中,通常需要在“变量”视图中配置必要的 API Key(例如用于调用外部 AI 模型的 'GPT_API_KEY')。
  5. 启用 MCP Server 平台: 在服务编辑器中的“配置”视图下,找到并启用“MCP Server”平台。通常无需额外配置。

服务器配置(供MCP客户端连接)

Convoworks GPT 作为 MCP 服务器运行时,通过 WordPress 的 REST API 暴露一个端点供 MCP 客户端连接。客户端需要知道这个端点 URL 来启动会话和发送请求。

客户端通常会通过以下配置连接到 Convoworks GPT MCP 服务器:

  • 连接类型: SSE (Server-Sent Events)。某些客户端可能需要通过 'mcp-proxy' 等工具将 SSE 端点桥接到 Stdio。
  • 服务器地址: 在 Convoworks 服务编辑器中,启用 MCP Server 平台并发布开发版本后,可以在服务的“Releases”视图(通常在“Development”部分下)找到 MCP Server 的基础 URL。点击该 URL 旁边的“LINK”按钮即可复制。这个 URL 是客户端建立 初始 SSE 连接 的入口。
  • 会话管理: MCP 协议本身处理会话 ID 的创建和管理。客户端通过初始 URL 连接后,服务器会在响应头中返回会话 ID (例如 'Mcp-Session-Id'),并通过 SSE 事件 ('endpoint') 告知客户端用于发送 JSON-RPC 命令的 实际消息端点 URL。客户端应使用这些信息进行后续通信。

JSON-RPC 配置示例 (供 MCP 客户端配置参考):

MCP 客户端的配置格式取决于具体的客户端工具。通常,您需要提供服务器的 基础连接 URL

例如,对于支持通过外部命令启动 MCP 服务器的客户端,您可能会使用 'mcp-proxy' 工具来桥接:

{
  // ... 其他客户端配置
  "servers": {
    "my-convoworks-mcp": {
      "command": "mcp-proxy",
      "args": [
        "YOUR_CONVOWORKS_MCP_BASE_URL" // 替换为您从Convoworks Releases视图复制的MCP基础URL
      ]
    }
  }
}

其中 'YOUR_CONVOWORKS_MCP_BASE_URL' 就是您需要从 Convoworks 服务编辑器中获取的那个特定的 URL。

基本使用方法

  1. 在 Convoworks 中构建服务: 使用 Convoworks 的可视化编辑器,通过组合各种组件(包括 Convoworks GPT 提供的 GPT API 调用、Prompt 模板、Chat Function、WP REST Proxy 等)来定义您的 AI 助手逻辑。
  2. 启用 MCP Server 平台: 在服务配置中启用 MCP Server。
  3. 获取 MCP URL: 在服务的 Releases 视图中获取 MCP Server 的基础 URL。
  4. 连接 MCP 客户端: 使用您偏好的 MCP 客户端(例如兼容的 VS Code 扩展或桌面应用),配置连接到您获取的 URL。
  5. 与服务交互: 通过 MCP 客户端向您的 Convoworks 服务发送请求,例如列出可用的工具和 Prompt,或者直接调用工具执行操作,获取 Prompt 模板等。LLM 客户端会利用这些功能来与您的 Convoworks 服务进行高级交互。

信息

分类

AI与计算