使用说明
项目简介
该项目提供了一个基于Model Context Protocol (MCP) 的服务器实现,用于将OpenAI的语言模型能力集成到支持MCP协议的LLM应用中。通过此服务器,LLM客户端可以调用OpenAI的Chat Completion API,实现文本生成等功能。
主要功能点
- OpenAI 模型集成: 封装了OpenAI的Chat Completion API,使其可以通过MCP协议进行访问。默认使用 'o1-preview' 模型。
- 文本生成工具: 提供名为 'chat_completion' 的工具,LLM客户端可以通过调用此工具,并传入prompt,来生成文本内容。
- 可配置参数: 支持配置模型名称 (model)、温度 (temperature)、系统消息 (system_message) 等参数,以定制文本生成行为。
- 标准 MCP 协议: 遵循 MCP 协议规范,使用 JSON-RPC over Stdio 进行通信,易于集成到各种 MCP 客户端。
安装步骤
- 克隆仓库: 首先,克隆该GitHub仓库到本地:
git clone https://github.com/MCP-Mirror/AllAboutAI-YT_mcp-servers.git - 进入 openai-server 目录: 切换到 'openai-server' 目录:
cd openai-server - 安装依赖: 使用 npm 安装项目依赖:
npm install - 配置 OpenAI API 密钥: 设置 OpenAI API 密钥。推荐在 '.env' 文件中配置,在 'openai-server' 目录下创建 '.env' 文件,并添加以下内容,替换 '<Your OpenAI API Key>' 为你实际的 OpenAI API 密钥:
OPENAI_API_KEY=<Your OpenAI API Key>
服务器配置
MCP 客户端需要配置以下 JSON 对象来连接到 OpenAI MCP 服务器。请注意将 '<Your OpenAI API Key>' 替换为你的实际 OpenAI API 密钥。
{ "mcpServers": { "openai": { "command": "openai-server/src/index.js", // OpenAI MCP 服务器的启动命令,指向服务器入口文件 "args": [], // 启动参数,当前配置为空 "env": { "OPENAI_API_KEY": "<Your OpenAI API Key>" // 环境变量,用于传递 OpenAI API 密钥,请替换为你的密钥 } } } }
基本使用方法
- 启动服务器: 在 'openai-server' 目录下,运行以下命令启动 OpenAI MCP 服务器:
或者使用 'node src/index.js' 命令。服务器成功启动后,会在控制台输出 "OpenAI MCP server running on stdio"。npm start - 客户端调用: 在你的 MCP 客户端中,配置上述服务器信息,并使用 'chat_completion' 工具发送请求,即可调用 OpenAI 的 Chat Completion API。例如,发送一个 'CallToolRequest',工具名称设置为 'chat_completion',参数包括 'prompt' (用户提示语) 等。服务器会将 OpenAI API 的响应封装在 MCP 响应中返回给客户端。
信息
分类
AI与计算