项目简介

Convoworks GPT 是一个 WordPress 插件,作为 Convoworks 框架的扩展。它允许您将使用 Convoworks 构建的应用程序服务作为符合 Model Context Protocol (MCP) 标准的服务器运行,从而能够被支持 MCP 的 LLM 客户端发现和使用。

主要功能点

  • MCP 协议支持: 实现 MCP 初始化、工具列表、工具调用、Prompt 列表、Prompt 获取等核心 JSON-RPC 方法。
  • 传输协议: 主要通过 SSE (Server-Sent Events) 协议提供服务,并通过外部代理支持 Stdio 等其他协议。
  • 工具暴露: 能够将 Convoworks 服务中定义的组件和工作流(特别是 WP REST API 调用)暴露为 LLM 可调用的 MCP 工具。
  • Prompt 管理: 支持定义和暴露可参数化的 Prompt 模板,供 LLM 客户端检索和使用。
  • 会话管理: 服务器端管理与客户端的 MCP 会话状态。
  • 能力声明: 在初始化握手中向客户端声明服务器支持的 MCP 能力。

安装步骤

  1. 安装 Convoworks WP: 确保您的 WordPress 网站已安装并激活 Convoworks WP 插件。您可以在这里下载:'https://downloads.wordpress.org/plugin/convoworks-wp.0.22.43.zip'。
  2. 安装 Convoworks GPT: 在 WordPress 后台上传并激活 Convoworks GPT 插件的 ZIP 文件。
  3. 创建 Convoworks 服务: 在 Convoworks WP 面板中,点击“Create new”,输入名称,选择一个 MCP 相关的模板(例如“MCP Server Example”)。
  4. 启用 MCP Server 平台: 在创建的服务编辑器的“Configuration”视图中,切换开启“MCP Server”平台。

服务器配置 (for client)

MCP 客户端连接此服务器通常需要配置启动命令 ('command') 和参数 ('args'),以便客户端可以启动或连接到服务器进程。Convoworks GPT 作为一个 WordPress 服务运行,主要通过一个 SSE 端点提供服务。

对于需要 'command'/'args' 配置的 MCP 客户端(例如通过 Stdio 连接的客户端),您可以使用一个外部代理工具(如 'mcp-proxy',可通过 'npm install -g mcp-proxy' 安装)来包装此 SSE 端点。典型的客户端配置 JSON 如下所示:

{
  "server name": "Convoworks MCP", // 服务器名称
  "command": "mcp-proxy",         // 用于连接SSE端点的代理命令
  "args": [
    "<Your Convoworks MCP Service SSE Endpoint URL>" // 您的Convoworks MCP服务SSE端点URL
  ]
}

请注意,'<Your Convoworks MCP Service SSE Endpoint URL>' 需要从您的 WordPress 网站上,对应 Convoworks 服务的发布设置中获取。在服务编辑器的 'Releases' 视图中,点击 'convo-gpt.mcp-server' 旁边的 'LINK' 即可复制该 URL。

支持 SSE 协议的 MCP 客户端可以直接使用该端点 URL 进行连接,无需使用代理。

基本使用方法

  1. 在 Convoworks 服务中使用 'MCP Processor' 组件作为处理 MCP 请求的入口。
  2. 在 'MCP Processor' 的子元素中,添加 'WP REST Proxy Function' 来暴露 WordPress REST API 作为工具,或添加 'Simple MCP Prompt Template' 来定义可用的 Prompt 模板。
  3. 通过上述“服务器配置”步骤获取您的 MCP 服务 SSE 端点 URL。
  4. 配置您的 MCP 客户端(如 VS Code 插件 cLine 或通过 'mcp-proxy' 连接的 Claude Desktop)使用该 URL 或通过代理连接。
  5. LLM 客户端即可通过 MCP 协议与您的 Convoworks 服务交互,调用暴露的工具和 Prompt。

信息

分类

AI与计算