项目简介
GPT-5 MCP咨询顾问是一个基于Model Context Protocol (MCP) 的服务器实现,旨在通过标准化接口将OpenAI GPT-5大模型集成到支持MCP协议的LLM客户端中。它通过提供特定的“工具”来与LLM客户端交互,允许大模型调用外部功能。目前,它提供两种核心工具:'gpt5_generate' 用于直接文本生成,以及 'gpt5_messages' 用于多轮对话生成,并支持设置模型、系统指令和推理投入等级等参数。
主要功能点
- GPT-5文本生成: 提供名为 'gpt5_generate' 的工具,允许LLM客户端向OpenAI GPT-5模型发送单次文本请求(例如一个问题或指令),获取生成的内容。
- GPT-5对话生成: 提供名为 'gpt5_messages' 的工具,支持以结构化消息数组(包含用户、开发者、助手等角色和内容)的形式与GPT-5进行多轮对话,适用于需要更复杂交互的场景。
- 灵活的模型配置: 在调用工具时,可以指定GPT-5模型变体(如 'gpt-5' 或其他版本)、系统指令(为模型设定行为模式)以及推理投入等级('low', 'medium', 'high')。
- 标准化MCP接口: 完全遵循Model Context Protocol (MCP) 协议规范,通过JSON-RPC和Stdio传输协议与支持MCP的LLM客户端(如Claude Code)无缝集成。
安装步骤
由于这是一个Node.js项目,你需要安装Node.js (推荐LTS版本) 和 pnpm 包管理器。
-
克隆仓库: 打开你的终端或命令行工具,执行以下命令克隆项目仓库:
git clone https://github.com/nicknisi/claude-plugins.git cd claude-plugins -
安装依赖: 进入项目根目录后,安装所有必要的依赖:
pnpm install -
构建MCP服务器: 运行构建命令,这将编译TypeScript源代码并生成可执行的JavaScript文件:
pnpm run build -
配置API Key: MCP服务器需要你的OpenAI API Key 来与GPT-5模型进行通信。你有两种方式配置它:
- 创建 '.env' 文件: 在 'claude-plugins' 仓库的根目录创建一个名为 '.env' 的文件,并添加以下内容(将 'your_openai_api_key_here' 替换为你的实际API Key):
OPENAI_API_KEY=your_openai_api_key_here - 设置系统环境变量: 将 'OPENAI_API_KEY' 设置为你的系统环境变量。
- 创建 '.env' 文件: 在 'claude-plugins' 仓库的根目录创建一个名为 '.env' 的文件,并添加以下内容(将 'your_openai_api_key_here' 替换为你的实际API Key):
服务器配置 (MCP客户端使用)
在你的MCP客户端中,你需要添加一个MCP服务器配置,指向 'gpt5-consultant' 插件的服务器可执行文件。以下是一个JSON格式的配置示例,你的客户端通常会在其UI或配置文件中提供类似设置:
{ "name": "GPT-5 MCP 咨询顾问", "command": "node", "args": [ "/path/to/claude-plugins/plugins/gpt5-consultant/mcp-server/dist/index.js" ], "description": "连接到OpenAI GPT-5模型,提供文本生成和对话功能。", "capabilities": { "tools": { "listChanged": false } } }
- 'name': "GPT-5 MCP 咨询顾问" - 服务器在MCP客户端中显示的名称。
- 'command': "node" - 启动MCP服务器的命令,这里是Node.js解释器。
- 'args': ["/path/to/claude-plugins/plugins/gpt5-consultant/mcp-server/dist/index.js"] - 传递给 'command' 的参数,即MCP服务器的实际启动脚本路径。请务必将 '/path/to/claude-plugins/' 替换为你实际克隆此仓库的完整路径。
- 'description': "连接到OpenAI GPT-5模型,提供文本生成和对话功能。" - 服务器的简要说明。
- 'capabilities': 指明该MCP服务器提供的能力。'"tools": {}' 表示它提供了工具功能,可以被LLM客户端调用。
基本使用方法
一旦GPT-5 MCP咨询顾问服务器在你的MCP客户端中配置并成功启动,LLM客户端将能够发现并调用 'gpt5_generate' 和 'gpt5_messages' 这两个工具。具体的调用方式取决于你的MCP客户端界面和LLM的工具使用能力。通常,LLM会根据对话上下文和用户的需求,自动识别并选择合适的工具进行调用。
-
调用 'gpt5_generate' 工具: 当LLM需要对一个简单的文本输入进行GPT-5生成时,例如当用户请求“写一首关于秋天的诗”时,LLM可能会通过内部机制调用此工具,并提供 'input' 参数。
- 必需参数: 'input' (字符串,即要发送给GPT-5的文本或提示)。
- 可选参数: 'model' (字符串,例如 "gpt-5.5" 来指定模型变体), 'instructions' (字符串,作为系统指令,如 "你是一个富有创意的诗人"), 'reasoning_effort' (枚举类型,'low', 'medium', 'high',用于调整模型的推理强度)。
-
调用 'gpt5_messages' 工具: 当LLM需要进行多轮对话或更复杂的交互时,它会使用此工具。例如,用户进行了一系列对话,LLM需要将这些对话历史发送给GPT-5以获取进一步的回复。
- 必需参数: 'messages' (一个对象数组,每个对象包含 'role' (枚举类型,'user', 'developer', 'assistant') 和 'content' (字符串,消息内容))。
- 可选参数: 'model', 'instructions', 'reasoning_effort' (与 'gpt5_generate' 相同)。
信息
分类
AI与计算