使用说明

项目简介

OpenAI MCP Server 是一个基于 Model Context Protocol (MCP) 的服务器实现,它作为一个桥梁,使得支持 MCP 协议的客户端(如 Claude)能够方便地调用 OpenAI 的语言模型。该服务器主要提供了一个名为 'ask-openai' 的工具,允许用户向 OpenAI 的 'o3-mini' 和 'gpt-4o-mini' 模型提问,并获取模型的回答。

主要功能点

  • 连接 OpenAI 模型: 通过 MCP 协议,将 OpenAI 的语言模型能力集成到支持 MCP 协议的客户端中。
  • 提供 ask-openai 工具: 客户端可以使用 'ask-openai' 工具,向 OpenAI 模型发送问题并接收回答。
  • 支持多种模型: 支持 OpenAI 的 'o3-mini' (默认) 和 'gpt-4o-mini' 模型,用户可以根据需求选择合适的模型。
  • 标准化接口: 遵循 MCP 协议标准,提供统一的接口,易于集成和扩展。

安装步骤

  1. 克隆仓库 打开终端,执行以下命令克隆 GitHub 仓库到本地:

    git clone https://github.com/thadius83/mcp-server-openai.git
    cd mcp-server-openai
  2. 安装 Python 包 在仓库根目录下,执行以下命令安装 Python 包及其依赖:

    pip install .

服务器配置

要让 MCP 客户端(如 Claude)连接到 OpenAI MCP Server,需要配置客户端的 MCP 设置。以下是一个 'cline_mcp_settings.json' 文件的配置示例。请根据你的 MCP 客户端的具体配置文件进行相应配置。

{
  "mcpServers": {
    "github.com/thadius83/mcp-server-openai": {
      "command": "python",
      "args": [
        "-m",
        "src.mcp_server_openai.server",
        "--openai-api-key",
        "YOUR_OPENAI_API_KEY"  // 请替换为你的 OpenAI API 密钥
      ],
      "env": {
        "PYTHONPATH": "/path/to/mcp-server-openai" // 请替换为你的 mcp-server-openai 仓库的绝对路径
      },
      "disabled": false,
      "autoApprove": []
    }
  }
}

配置参数说明:

  • '"server name"': '"github.com/thadius83/mcp-server-openai"' - 服务器名称,用于在 MCP 客户端中标识和引用此服务器。
  • '"command"': '"python"' - 启动服务器的命令,这里使用 Python 解释器。
  • '"args"': 启动命令的参数列表。
    • '"-m src.mcp_server_openai.server"': 指定以模块方式运行 'src.mcp_server_openai.server.py' 文件,这是服务器的入口点。
    • '"--openai-api-key"': 用于传递 OpenAI API 密钥的参数。请务必将 '"YOUR_OPENAI_API_KEY"' 替换为你从 OpenAI 官网获取的真实 API 密钥。
  • '"env"': 环境变量设置。
    • '"PYTHONPATH"': 指定 Python 模块的搜索路径。请将 '"/path/to/mcp-server-openai"' 替换为你本地 'mcp-server-openai' 仓库的绝对路径。这确保服务器能够找到项目中的模块。

配置完成后,请重启你的 MCP 客户端使配置生效。

基本使用方法

配置完成后,在支持 MCP 协议的客户端中,你可以使用 '<use_mcp_tool>' 标签来调用 'ask-openai' 工具,向 OpenAI 模型提问。

使用示例 (在 Claude 中):

<use_mcp_tool>
<server_name>github.com/thadius83/mcp-server-openai</server_name>
<tool_name>ask-openai</tool_name>
<arguments>
{
  "query": "请介绍一下Python的asyncio库",
  "model": "gpt-4o-mini"  // 可选参数,指定使用的模型,默认为 o3-mini,可选 gpt-4o-mini
}
</arguments>
</use_mcp_tool>

将 '<arguments>' 标签内的 JSON 内容替换为你想要提出的问题和选择的模型。客户端会将请求发送到 OpenAI MCP Server,服务器调用 OpenAI 模型并将结果返回给客户端。

信息

分类

AI与计算