使用说明
项目简介
本项目实现了一个基于 Model Context Protocol (MCP) 的 OpenAI 服务器,旨在为 LLM 客户端提供通过 MCP 协议调用 OpenAI o1-preview 模型进行文本对话补全的功能。通过此服务器,LLM 客户端可以标准化地利用 OpenAI 的语言模型能力。
主要功能点
- 文本对话补全工具: 提供名为 'chat_completion' 的工具,允许客户端请求 OpenAI 的 o1-preview 模型生成文本回复。
- MCP 协议支持: 完全实现了 MCP 协议的服务端规范,能够接收和处理符合 MCP 协议的 JSON-RPC 请求。
- OpenAI o1-preview 模型集成: 无缝对接 OpenAI 的 o1-preview 模型,利用其强大的文本生成能力。
- 参数可配置: 支持在调用 'chat_completion' 工具时配置 'prompt' (提示语) 和 'model' (模型名称) 参数。
- Stdio 传输: 使用标准输入/输出 (stdio) 作为 MCP 服务器的传输协议,方便集成和部署。
安装步骤
- 克隆仓库
git clone https://github.com/AllAboutAI-YT/mcp-servers.git - 进入 openai-server 目录
cd mcp-servers/openai-server - 安装依赖
npm install - 配置 OpenAI API 密钥
- 在 'openai-server' 目录下创建或编辑 '.env' 文件。
- 在 '.env' 文件中添加以下内容,并将 '<YOUR_OPENAI_API_KEY>' 替换为你的 OpenAI API 密钥。
OPENAI_API_KEY=<YOUR_OPENAI_API_KEY>
服务器配置
MCP 客户端需要配置以下 JSON 信息才能连接到 OpenAI MCP 服务器。请注意,以下配置信息为 JSON 格式,无需修改任何代码,直接复制到 MCP 客户端的服务器配置中即可。
{ "mcpServers": { "openai": { "command": "openai-server", "env": { "OPENAI_API_KEY": "<你的OpenAI API密钥>" } } } }
- 'openai': 服务器名称,用于在客户端配置中唯一标识此 OpenAI 服务器。
- 'command': 启动命令,指定了启动 OpenAI MCP 服务器的可执行命令为 'openai-server'。客户端会执行此命令来启动服务器。
- 'env': 环境变量,用于配置服务器运行所需的环境变量。
- 'OPENAI_API_KEY': OpenAI API 密钥,请务必将 '<你的OpenAI API密钥>' 替换为你真实的 OpenAI API 密钥。这是访问 OpenAI 服务的凭证。
基本使用方法
-
启动服务器 在 'openai-server' 目录下,运行以下命令启动 OpenAI MCP 服务器:
npm start或
node src/index.ts服务器启动后,将通过标准输入/输出 (stdio) 监听 MCP 客户端的请求。
-
配置 MCP 客户端 在你的 MCP 客户端应用中,根据客户端的使用说明,配置上述提供的服务器配置 JSON 信息。确保客户端能够正确识别 'openai' 服务器,并配置了正确的启动命令和 OpenAI API 密钥。
-
使用 'chat_completion' 工具 通过 MCP 客户端,你可以发送 MCP 请求 (例如 'CallToolRequest') 调用 'chat_completion' 工具,并传递 'prompt' 等参数,与 OpenAI o1-preview 模型进行对话。具体的请求格式和参数配置请参考 MCP 协议文档和你的 MCP 客户端使用说明。
信息
分类
AI与计算