使用说明
项目简介
'mcp-openai' 是一个基于 Model Context Protocol (MCP) 的服务器,旨在弥合 Claude 和 OpenAI 之间的鸿沟。通过部署此服务器,用户可以在 Claude 环境中无缝访问并使用 OpenAI 强大的语言模型,例如 'gpt-4o' 和 'gpt-4o-mini'。该项目充当一个桥梁,使得用户能够利用 Claude 的界面和工作流程,同时受益于 OpenAI 模型的先进性能。
主要功能点
- OpenAI 模型集成: 将 OpenAI 的多种聊天模型(包括 'gpt-4o', 'gpt-4o-mini', 'o1-preview', 'o1-mini')集成到 MCP 协议中,使得这些模型可以被任何 MCP 客户端(如 Claude)调用。
- 工具化访问: 提供 'openai_chat' 工具,允许 MCP 客户端通过标准化的方式调用 OpenAI 的聊天补全 API,并指定要使用的模型。
- 简易配置: 通过简单的 JSON 配置文件,即可将此 MCP 服务器添加到 Claude 桌面应用中,快速启用 OpenAI 模型支持。
- 错误处理: 具备基本的错误处理机制,当 OpenAI API 调用失败时,能够向客户端返回错误信息,方便用户排查问题。
安装步骤
-
安装 Claude 桌面应用: 确保您已安装 Claude 桌面应用。
-
获取 OpenAI API 密钥: 访问 OpenAI 平台 获取 OpenAI API 密钥。
-
配置 Claude 桌面应用: 找到 Claude 桌面应用的配置文件 'claude_desktop_config.json'。该文件通常位于:
- macOS: '~/Library/Application\ Support/Claude/claude_desktop_config.json'
- Linux: '~/.config/Claude/claude_desktop_config.json' (或类似,取决于具体的 Linux 发行版)
- Windows: '%APPDATA%\Claude\claude_desktop_config.json'
使用文本编辑器打开 'claude_desktop_config.json' 文件,并在 'mcpServers' 字段中添加 'mcp-openai' 服务器的配置信息。如果 'mcpServers' 字段不存在,请创建它。
服务器配置
将以下 JSON 配置代码添加到 'claude_desktop_config.json' 文件的 'mcpServers' 字段中。请务必将 '"your-api-key-here"' 替换为您在 OpenAI 平台获取的实际 API 密钥。
{ "mcpServers": { "mcp-openai": { "command": "npx", "args": ["-y", "@mzxrai/mcp-openai@latest"], "env": { "OPENAI_API_KEY": "your-api-key-here (请替换为你的 OpenAI API 密钥)" } } } }
配置参数说明:
- 'mcpServers': Claude 桌面应用用于配置 MCP 服务器的顶级字段。
- 'mcp-openai': 您为该 MCP 服务器定义的名称,这个名称将在 Claude 中用于引用此服务器。您可以自定义此名称。
- 'command': 指定启动 MCP 服务器的命令。这里使用 'npx',它是 Node.js 包管理器 npm 自带的包执行器,用于运行 npm 包。
- 'args': 传递给 'command' 的参数列表。
- '"-y"': 'npx' 的参数,表示在安装 npm 包时自动确认,无需用户手动输入 'yes'。
- '"@mzxrai/mcp-openai@latest"': 指定要通过 'npx' 运行的 npm 包及其版本。'@mzxrai/mcp-openai' 是该 MCP 服务器的 npm 包名,'@latest' 表示使用最新版本。
- 'env': 用于设置 MCP 服务器运行时的环境变量。
- '"OPENAI_API_KEY"': 指定 OpenAI API 密钥的环境变量名。请务必将 '"your-api-key-here"' 替换为您真实的 OpenAI API 密钥。
基本使用方法
完成配置后,重新启动 Claude 桌面应用使配置生效。在 Claude 中,您可以像平常一样进行对话。当您希望使用 OpenAI 的模型时,只需在对话中明确提及模型名称即可。例如:
- "Can you ask o1 what it thinks about this problem?" (使用 'o1-preview' 模型)
- "What does gpt-4o think about this?" (使用 'gpt-4o' 模型)
服务器当前支持以下模型:
- 'gpt-4o' (默认模型)
- 'gpt-4o-mini'
- 'o1-preview'
- 'o1-mini'
Claude 会识别您的指令,并将请求通过 'mcp-openai' 服务器转发到 OpenAI 的相应模型进行处理,并将结果返回给您。
信息
分类
AI与计算