项目简介
Convoworks GPT 是一个 WordPress 插件,作为 Convoworks 框架的扩展。它允许您将使用 Convoworks 构建的应用程序服务作为符合 Model Context Protocol (MCP) 标准的服务器运行,从而能够被支持 MCP 的 LLM 客户端发现和使用。
主要功能点
- MCP 协议支持: 实现 MCP 初始化、工具列表、工具调用、Prompt 列表、Prompt 获取等核心 JSON-RPC 方法。
- 传输协议: 主要通过 SSE (Server-Sent Events) 协议提供服务,并通过外部代理支持 Stdio 等其他协议。
- 工具暴露: 能够将 Convoworks 服务中定义的组件和工作流(特别是 WP REST API 调用)暴露为 LLM 可调用的 MCP 工具。
- Prompt 管理: 支持定义和暴露可参数化的 Prompt 模板,供 LLM 客户端检索和使用。
- 会话管理: 服务器端管理与客户端的 MCP 会话状态。
- 能力声明: 在初始化握手中向客户端声明服务器支持的 MCP 能力。
安装步骤
- 安装 Convoworks WP: 确保您的 WordPress 网站已安装并激活 Convoworks WP 插件。您可以在这里下载:'https://downloads.wordpress.org/plugin/convoworks-wp.0.22.43.zip'。
- 安装 Convoworks GPT: 在 WordPress 后台上传并激活 Convoworks GPT 插件的 ZIP 文件。
- 创建 Convoworks 服务: 在 Convoworks WP 面板中,点击“Create new”,输入名称,选择一个 MCP 相关的模板(例如“MCP Server Example”)。
- 启用 MCP Server 平台: 在创建的服务编辑器的“Configuration”视图中,切换开启“MCP Server”平台。
服务器配置 (for client)
MCP 客户端连接此服务器通常需要配置启动命令 ('command') 和参数 ('args'),以便客户端可以启动或连接到服务器进程。Convoworks GPT 作为一个 WordPress 服务运行,主要通过一个 SSE 端点提供服务。
对于需要 'command'/'args' 配置的 MCP 客户端(例如通过 Stdio 连接的客户端),您可以使用一个外部代理工具(如 'mcp-proxy',可通过 'npm install -g mcp-proxy' 安装)来包装此 SSE 端点。典型的客户端配置 JSON 如下所示:
{ "server name": "Convoworks MCP", // 服务器名称 "command": "mcp-proxy", // 用于连接SSE端点的代理命令 "args": [ "<Your Convoworks MCP Service SSE Endpoint URL>" // 您的Convoworks MCP服务SSE端点URL ] }
请注意,'<Your Convoworks MCP Service SSE Endpoint URL>' 需要从您的 WordPress 网站上,对应 Convoworks 服务的发布设置中获取。在服务编辑器的 'Releases' 视图中,点击 'convo-gpt.mcp-server' 旁边的 'LINK' 即可复制该 URL。
支持 SSE 协议的 MCP 客户端可以直接使用该端点 URL 进行连接,无需使用代理。
基本使用方法
- 在 Convoworks 服务中使用 'MCP Processor' 组件作为处理 MCP 请求的入口。
- 在 'MCP Processor' 的子元素中,添加 'WP REST Proxy Function' 来暴露 WordPress REST API 作为工具,或添加 'Simple MCP Prompt Template' 来定义可用的 Prompt 模板。
- 通过上述“服务器配置”步骤获取您的 MCP 服务 SSE 端点 URL。
- 配置您的 MCP 客户端(如 VS Code 插件 cLine 或通过 'mcp-proxy' 连接的 Claude Desktop)使用该 URL 或通过代理连接。
- LLM 客户端即可通过 MCP 协议与您的 Convoworks 服务交互,调用暴露的工具和 Prompt。
信息
分类
AI与计算