使用说明
项目简介
User Prompt MCP Server 是一个实现了 Model Context Protocol (MCP) 的服务器,专为需要用户在模型生成内容过程中提供额外输入的场景设计。它作为一个桥梁,连接了AI模型和用户,使得AI可以在生成文本时,通过弹出的图形界面对话框向用户请求信息,从而实现更具交互性的体验。目前主要为 Cursor 编辑器设计,但也兼容任何支持 MCP 协议的客户端。
主要功能点
- 用户输入提示: 允许 AI 在生成内容的过程中请求用户提供更多信息。
- 简单的图形用户界面 (GUI): 使用对话框展示输入提示,支持文本自动换行,方便用户阅读和输入。
- 跨平台: 理论上支持 Linux 和 macOS 操作系统 (Linux 已测试,macOS 未充分测试)。
- Stdio 传输: 通过标准输入输出 (stdio) 与 MCP 客户端(如 Cursor)集成。
安装步骤
-
环境准备:
- 确保已安装 Go 语言环境,版本要求 1.18 或更高。
- 图形界面依赖:
- Linux: 需要安装 'zenity'。 大部分Linux发行版可以使用包管理器安装,例如 'sudo apt-get install zenity' (Debian/Ubuntu) 或 'sudo yum install zenity' (CentOS/RHEL)。
- macOS: 依赖于 macOS 自带的 'osascript',无需额外安装。
-
从源代码安装: 打开终端,执行以下命令安装 'user-prompt-mcp':
go install github.com/nazar256/user-prompt-mcp/cmd/user-prompt-mcp@latest安装成功后,'user-prompt-mcp' 可执行文件通常会位于 '$GOPATH/bin' 或 '$HOME/go/bin' 目录下,请确保该目录已添加到系统的 'PATH' 环境变量中。
服务器配置
此 MCP 服务器主要通过 stdio 方式与客户端通信。对于 Cursor 等 MCP 客户端,你需要在客户端的 MCP 服务器配置中添加以下 JSON 配置信息。这里的 'command' 字段指定了启动 MCP 服务器的命令。
{ "mcpServers": { "prompt": { // "prompt" 是你为该 MCP 服务器自定义的名称,可以根据需要修改 "command": "user-prompt-mcp" // 启动 User Prompt MCP 服务器的命令,确保 'user-prompt-mcp' 可执行文件在系统的 PATH 环境变量中 // "args": [] // (可选) 如果 'user-prompt-mcp' 命令需要额外的启动参数,可以在这里配置,本例中不需要 } } }
配置步骤 (以 Cursor 为例):
- 打开 Cursor 编辑器。
- 进入设置 (Settings)。
- 找到 MCP Servers 设置项 (通常在 "Advanced" 或 "Experimental" 设置中)。
- 点击 "Edit in settings.json" 或类似的按钮,编辑 JSON 配置文件。
- 在 'mcpServers' 字段下添加上述 JSON 配置代码块。
- 保存 'settings.json' 文件并刷新 Cursor 设置,使配置生效。
基本使用方法
-
配置 Cursor 全局规则: 为了让 Cursor 的 AI 模型知道何时以及如何使用 'user_prompt' 工具,你需要在 Cursor 的全局规则中添加相应的指令。例如,可以在全局规则中加入类似以下内容:
Important - do not finish responding until explicitly told to do so, instead always use MCP 'input_user_prompt' and wait for response in all cases, either you feel stuck, you have question or you finished work on a prompt - always communicate with the user using this MCP.这条规则的作用是指导 AI 模型在需要用户输入时,不要结束生成过程,而是调用 MCP 的 'input_user_prompt' 工具,并等待用户响应。
-
在 Cursor 中使用: 完成上述配置后,当你在 Cursor 中与 AI 模型交互时,如果模型在生成内容过程中需要用户提供更多信息,它将使用 'user_prompt' 工具。此时,你会看到一个图形界面对话框弹出,显示 AI 模型的提示信息,并等待你输入内容。输入完成后,点击 "OK" (或 macOS 上的 "OK"),你输入的内容将作为工具调用的结果返回给 AI 模型,模型将基于你的输入继续生成内容。
注意:
- 确保 'zenity' (Linux) 或 'osascript' (macOS) 能够正常工作,图形界面依赖是用户输入对话框显示的基础。
- 'user-prompt-mcp' 服务器需要在 Cursor 启动后保持运行状态,以便响应 Cursor 的请求。 通常情况下,Cursor 会在需要时自动启动和管理配置的 MCP 服务器。
信息
分类
AI与计算