使用说明

项目简介

该项目提供了一个基于Model Context Protocol (MCP) 的服务器实现,用于将OpenAI的语言模型能力集成到支持MCP协议的LLM应用中。通过此服务器,LLM客户端可以调用OpenAI的Chat Completion API,实现文本生成等功能。

主要功能点

  • OpenAI 模型集成: 封装了OpenAI的Chat Completion API,使其可以通过MCP协议进行访问。默认使用 'o1-preview' 模型。
  • 文本生成工具: 提供名为 'chat_completion' 的工具,LLM客户端可以通过调用此工具,并传入prompt,来生成文本内容。
  • 可配置参数: 支持配置模型名称 (model)、温度 (temperature)、系统消息 (system_message) 等参数,以定制文本生成行为。
  • 标准 MCP 协议: 遵循 MCP 协议规范,使用 JSON-RPC over Stdio 进行通信,易于集成到各种 MCP 客户端。

安装步骤

  1. 克隆仓库: 首先,克隆该GitHub仓库到本地:
    git clone https://github.com/MCP-Mirror/AllAboutAI-YT_mcp-servers.git
  2. 进入 openai-server 目录: 切换到 'openai-server' 目录:
    cd openai-server
  3. 安装依赖: 使用 npm 安装项目依赖:
    npm install
  4. 配置 OpenAI API 密钥: 设置 OpenAI API 密钥。推荐在 '.env' 文件中配置,在 'openai-server' 目录下创建 '.env' 文件,并添加以下内容,替换 '<Your OpenAI API Key>' 为你实际的 OpenAI API 密钥:
    OPENAI_API_KEY=<Your OpenAI API Key>

服务器配置

MCP 客户端需要配置以下 JSON 对象来连接到 OpenAI MCP 服务器。请注意将 '<Your OpenAI API Key>' 替换为你的实际 OpenAI API 密钥。

{
  "mcpServers": {
    "openai": {
      "command": "openai-server/src/index.js",  // OpenAI MCP 服务器的启动命令,指向服务器入口文件
      "args": [],                                // 启动参数,当前配置为空
      "env": {
        "OPENAI_API_KEY": "<Your OpenAI API Key>" // 环境变量,用于传递 OpenAI API 密钥,请替换为你的密钥
      }
    }
  }
}

基本使用方法

  1. 启动服务器: 在 'openai-server' 目录下,运行以下命令启动 OpenAI MCP 服务器:
    npm start
    或者使用 'node src/index.js' 命令。服务器成功启动后,会在控制台输出 "OpenAI MCP server running on stdio"。
  2. 客户端调用: 在你的 MCP 客户端中,配置上述服务器信息,并使用 'chat_completion' 工具发送请求,即可调用 OpenAI 的 Chat Completion API。例如,发送一个 'CallToolRequest',工具名称设置为 'chat_completion',参数包括 'prompt' (用户提示语) 等。服务器会将 OpenAI API 的响应封装在 MCP 响应中返回给客户端。

信息

分类

AI与计算