使用说明

项目简介

本项目实现了一个基于 Model Context Protocol (MCP) 的 OpenAI 服务器,旨在为 LLM 客户端提供通过 MCP 协议调用 OpenAI o1-preview 模型进行文本对话补全的功能。通过此服务器,LLM 客户端可以标准化地利用 OpenAI 的语言模型能力。

主要功能点

  • 文本对话补全工具: 提供名为 'chat_completion' 的工具,允许客户端请求 OpenAI 的 o1-preview 模型生成文本回复。
  • MCP 协议支持: 完全实现了 MCP 协议的服务端规范,能够接收和处理符合 MCP 协议的 JSON-RPC 请求。
  • OpenAI o1-preview 模型集成: 无缝对接 OpenAI 的 o1-preview 模型,利用其强大的文本生成能力。
  • 参数可配置: 支持在调用 'chat_completion' 工具时配置 'prompt' (提示语) 和 'model' (模型名称) 参数。
  • Stdio 传输: 使用标准输入/输出 (stdio) 作为 MCP 服务器的传输协议,方便集成和部署。

安装步骤

  1. 克隆仓库
    git clone https://github.com/AllAboutAI-YT/mcp-servers.git
  2. 进入 openai-server 目录
    cd mcp-servers/openai-server
  3. 安装依赖
    npm install
  4. 配置 OpenAI API 密钥
    • 在 'openai-server' 目录下创建或编辑 '.env' 文件。
    • 在 '.env' 文件中添加以下内容,并将 '<YOUR_OPENAI_API_KEY>' 替换为你的 OpenAI API 密钥。
      OPENAI_API_KEY=<YOUR_OPENAI_API_KEY>

服务器配置

MCP 客户端需要配置以下 JSON 信息才能连接到 OpenAI MCP 服务器。请注意,以下配置信息为 JSON 格式,无需修改任何代码,直接复制到 MCP 客户端的服务器配置中即可。

{
  "mcpServers": {
    "openai": {
      "command": "openai-server",
      "env": {
        "OPENAI_API_KEY": "<你的OpenAI API密钥>"
      }
    }
  }
}
  • 'openai': 服务器名称,用于在客户端配置中唯一标识此 OpenAI 服务器。
  • 'command': 启动命令,指定了启动 OpenAI MCP 服务器的可执行命令为 'openai-server'。客户端会执行此命令来启动服务器。
  • 'env': 环境变量,用于配置服务器运行所需的环境变量。
    • 'OPENAI_API_KEY': OpenAI API 密钥请务必将 '<你的OpenAI API密钥>' 替换为你真实的 OpenAI API 密钥。这是访问 OpenAI 服务的凭证。

基本使用方法

  1. 启动服务器 在 'openai-server' 目录下,运行以下命令启动 OpenAI MCP 服务器:

    npm start

    node src/index.ts

    服务器启动后,将通过标准输入/输出 (stdio) 监听 MCP 客户端的请求。

  2. 配置 MCP 客户端 在你的 MCP 客户端应用中,根据客户端的使用说明,配置上述提供的服务器配置 JSON 信息。确保客户端能够正确识别 'openai' 服务器,并配置了正确的启动命令和 OpenAI API 密钥。

  3. 使用 'chat_completion' 工具 通过 MCP 客户端,你可以发送 MCP 请求 (例如 'CallToolRequest') 调用 'chat_completion' 工具,并传递 'prompt' 等参数,与 OpenAI o1-preview 模型进行对话。具体的请求格式和参数配置请参考 MCP 协议文档和你的 MCP 客户端使用说明。

信息

分类

AI与计算