项目简介
本项目 'pierrebrunelle_mcp-server-openai' 是一个 MCP (Model Context Protocol) 服务器的实现,它允许你通过标准的 MCP 协议,从支持 MCP 协议的 LLM 客户端(如 Claude)直接访问 OpenAI 的语言模型,例如 GPT-4 和 GPT-3.5-turbo。该服务器作为一个桥梁,使得 LLM 客户端能够以结构化的方式调用 OpenAI 的强大语言模型能力。
主要功能点
- 连接 OpenAI 模型: 允许 LLM 客户端通过 MCP 协议调用 OpenAI 的 GPT 模型。
- 工具调用: 提供名为 'ask-openai' 的工具,客户端可以调用此工具向 OpenAI 模型提问。
- 可配置模型参数: 支持在工具调用中配置 OpenAI 模型的参数,如模型名称(gpt-4, gpt-3.5-turbo)、温度 (temperature) 和最大 token 数 (max_tokens)。
- 标准 MCP 协议: 遵循 MCP 协议,确保与任何兼容 MCP 协议的 LLM 客户端互操作。
安装步骤
-
克隆仓库: 打开终端,执行以下命令克隆 GitHub 仓库到本地:
git clone https://github.com/MCP-Mirror/pierrebrunelle_mcp-server-openai cd pierrebrunelle_mcp-server-openai -
安装依赖: 在项目根目录下,使用 pip 安装项目依赖:
pip install -e .
服务器配置
要将此 MCP 服务器配置到 MCP 客户端(例如 Claude),你需要编辑客户端的配置文件(例如 'claude_desktop_config.json')。在 'mcpServers' 部分添加一个新的服务器配置项。以下是一个示例配置,你需要根据你的实际环境进行调整:
{ "mcpServers": { "openai-server": { // 服务器名称,客户端用此名称引用 "command": "python", // 启动服务器的命令,这里使用 python "args": ["-m", "src.mcp_server_openai.server"], // 启动服务器的参数,指向 server.py 模块 "env": { "PYTHONPATH": "/path/to/pierrebrunelle_mcp-server-openai", // 替换为你的项目本地路径 "OPENAI_API_KEY": "YOUR_OPENAI_API_KEY" // 替换为你的 OpenAI API 密钥 } } } }
配置参数说明:
- '"openai-server"': 你为该服务器定义的名称,在客户端配置中唯一标识此服务器。
- '"command": "python"': 指定用于启动服务器的命令,这里假设你的 Python 环境已配置好。
- '"args": ["-m", "src.mcp_server_openai.server"]': 指定传递给 'python' 命令的参数,'-m src.mcp_server_openai.server' 表示运行 'src/mcp_server_openai/server.py' 文件作为模块。
- '"env": { ... }"': 设置环境变量。
- '"PYTHONPATH": "/path/to/pierrebrunelle_mcp-server-openai"': 请务必替换为你的 'pierrebrunelle_mcp-server-openai' 项目在本地文件系统中的绝对路径。 这确保 Python 能够找到项目代码。
- '"OPENAI_API_KEY": "YOUR_OPENAI_API_KEY"': 请务必替换为你自己的 OpenAI API 密钥。 这是访问 OpenAI 服务的凭证。
基本使用方法
-
启动 MCP 服务器: 当客户端(如 Claude)尝试连接到名为 'openai-server' 的 MCP 服务器时,客户端会根据你在配置文件中提供的 'command' 和 'args' 启动服务器。
-
在客户端中使用 'ask-openai' 工具: 在支持 MCP 协议的 LLM 客户端中,你可以使用 'ask-openai' 工具来与 OpenAI 模型交互。具体的工具调用方式取决于客户端的界面和操作方法。通常,你需要在客户端中选择或指定使用 'openai-server' 提供的工具,并提供 'ask-openai' 工具所需的参数,例如 'query' (你想问的问题)、'model' (模型名称) 等。
例如,在 Claude 中,你可能需要通过特定的指令或界面操作来调用 'ask-openai' 工具,并传入你的问题。服务器会将你的问题发送给 OpenAI 模型,并将模型的响应返回给客户端。
注意:
- 确保你已经安装了 Python 环境,并且 'python' 命令在你的系统路径中可用。
- 你需要拥有 OpenAI API 密钥才能使用此服务器。请访问 OpenAI 官网获取 API 密钥。
- 仔细检查配置文件中的路径和 API 密钥是否正确,错误的配置可能导致服务器无法启动或无法连接到 OpenAI 服务。
信息
分类
AI与计算