项目简介

GPT-5 MCP咨询顾问是一个基于Model Context Protocol (MCP) 的服务器实现,旨在通过标准化接口将OpenAI GPT-5大模型集成到支持MCP协议的LLM客户端中。它通过提供特定的“工具”来与LLM客户端交互,允许大模型调用外部功能。目前,它提供两种核心工具:'gpt5_generate' 用于直接文本生成,以及 'gpt5_messages' 用于多轮对话生成,并支持设置模型、系统指令和推理投入等级等参数。

主要功能点

  1. GPT-5文本生成: 提供名为 'gpt5_generate' 的工具,允许LLM客户端向OpenAI GPT-5模型发送单次文本请求(例如一个问题或指令),获取生成的内容。
  2. GPT-5对话生成: 提供名为 'gpt5_messages' 的工具,支持以结构化消息数组(包含用户、开发者、助手等角色和内容)的形式与GPT-5进行多轮对话,适用于需要更复杂交互的场景。
  3. 灵活的模型配置: 在调用工具时,可以指定GPT-5模型变体(如 'gpt-5' 或其他版本)、系统指令(为模型设定行为模式)以及推理投入等级('low', 'medium', 'high')。
  4. 标准化MCP接口: 完全遵循Model Context Protocol (MCP) 协议规范,通过JSON-RPC和Stdio传输协议与支持MCP的LLM客户端(如Claude Code)无缝集成。

安装步骤

由于这是一个Node.js项目,你需要安装Node.js (推荐LTS版本) 和 pnpm 包管理器。

  1. 克隆仓库: 打开你的终端或命令行工具,执行以下命令克隆项目仓库:

    git clone https://github.com/nicknisi/claude-plugins.git
    cd claude-plugins
  2. 安装依赖: 进入项目根目录后,安装所有必要的依赖:

    pnpm install
  3. 构建MCP服务器: 运行构建命令,这将编译TypeScript源代码并生成可执行的JavaScript文件:

    pnpm run build
  4. 配置API Key: MCP服务器需要你的OpenAI API Key 来与GPT-5模型进行通信。你有两种方式配置它:

    • 创建 '.env' 文件: 在 'claude-plugins' 仓库的根目录创建一个名为 '.env' 的文件,并添加以下内容(将 'your_openai_api_key_here' 替换为你的实际API Key):
      OPENAI_API_KEY=your_openai_api_key_here
    • 设置系统环境变量: 将 'OPENAI_API_KEY' 设置为你的系统环境变量。

服务器配置 (MCP客户端使用)

在你的MCP客户端中,你需要添加一个MCP服务器配置,指向 'gpt5-consultant' 插件的服务器可执行文件。以下是一个JSON格式的配置示例,你的客户端通常会在其UI或配置文件中提供类似设置:

{
  "name": "GPT-5 MCP 咨询顾问",
  "command": "node",
  "args": [
    "/path/to/claude-plugins/plugins/gpt5-consultant/mcp-server/dist/index.js"
  ],
  "description": "连接到OpenAI GPT-5模型,提供文本生成和对话功能。",
  "capabilities": {
    "tools": {
      "listChanged": false
    }
  }
}
  • 'name': "GPT-5 MCP 咨询顾问" - 服务器在MCP客户端中显示的名称。
  • 'command': "node" - 启动MCP服务器的命令,这里是Node.js解释器。
  • 'args': ["/path/to/claude-plugins/plugins/gpt5-consultant/mcp-server/dist/index.js"] - 传递给 'command' 的参数,即MCP服务器的实际启动脚本路径。请务必将 '/path/to/claude-plugins/' 替换为你实际克隆此仓库的完整路径。
  • 'description': "连接到OpenAI GPT-5模型,提供文本生成和对话功能。" - 服务器的简要说明。
  • 'capabilities': 指明该MCP服务器提供的能力。'"tools": {}' 表示它提供了工具功能,可以被LLM客户端调用。

基本使用方法

一旦GPT-5 MCP咨询顾问服务器在你的MCP客户端中配置并成功启动,LLM客户端将能够发现并调用 'gpt5_generate' 和 'gpt5_messages' 这两个工具。具体的调用方式取决于你的MCP客户端界面和LLM的工具使用能力。通常,LLM会根据对话上下文和用户的需求,自动识别并选择合适的工具进行调用。

  1. 调用 'gpt5_generate' 工具: 当LLM需要对一个简单的文本输入进行GPT-5生成时,例如当用户请求“写一首关于秋天的诗”时,LLM可能会通过内部机制调用此工具,并提供 'input' 参数。

    • 必需参数: 'input' (字符串,即要发送给GPT-5的文本或提示)。
    • 可选参数: 'model' (字符串,例如 "gpt-5.5" 来指定模型变体), 'instructions' (字符串,作为系统指令,如 "你是一个富有创意的诗人"), 'reasoning_effort' (枚举类型,'low', 'medium', 'high',用于调整模型的推理强度)。
  2. 调用 'gpt5_messages' 工具: 当LLM需要进行多轮对话或更复杂的交互时,它会使用此工具。例如,用户进行了一系列对话,LLM需要将这些对话历史发送给GPT-5以获取进一步的回复。

    • 必需参数: 'messages' (一个对象数组,每个对象包含 'role' (枚举类型,'user', 'developer', 'assistant') 和 'content' (字符串,消息内容))。
    • 可选参数: 'model', 'instructions', 'reasoning_effort' (与 'gpt5_generate' 相同)。

信息

分类

AI与计算