使用说明
项目简介
本项目 'Ai-platform' 提供了一个AI平台模板,其中包含了基于Model Context Protocol (MCP) 的服务器实现。该MCP服务器主要集成了OpenAI的API,为LLM客户端提供了文本生成 ('generate_text') 和代码分析 ('analyze_code') 这两个工具。通过遵循MCP协议,该服务器能够以标准化的方式与任何兼容MCP协议的LLM客户端进行通信,从而扩展LLM的能力边界。
主要功能点
- MCP 服务器实现: 基于Node.js和MCP SDK构建,实现了MCP协议的核心功能,能够处理来自客户端的JSON-RPC请求并返回响应。
- 工具注册与执行: 注册了 'generate_text' 和 'analyze_code' 两个工具,允许LLM客户端调用OpenAI的API进行文本生成和代码分析。
- Stdio 传输协议: 使用标准输入输出 (Stdio) 作为MCP服务器与客户端之间的通信协议。
- OpenAI 集成: 无缝集成了OpenAI的API,使得LLM可以通过MCP服务器间接调用OpenAI的功能。
- 能力声明: 服务器声明了自身提供的工具能力,客户端可以通过查询获取这些信息。
安装步骤
-
克隆仓库:
git clone https://github.com/kenlester/Ai-platform.git cd Ai-platform -
安装 Node.js 依赖: 确保你的系统已安装 Node.js 和 npm。在仓库根目录下运行:
npm install -
设置 OpenAI API 密钥: 你需要设置 'OPENAI_API_KEY' 环境变量,用于OpenAI API的鉴权。例如,在Linux/macOS系统中,你可以在终端中执行:
export OPENAI_API_KEY="YOUR_OPENAI_API_KEY"请将 'YOUR_OPENAI_API_KEY' 替换为你的实际 OpenAI API 密钥。
-
构建项目: 运行以下命令编译 TypeScript 代码:
npm run build -
启动 MCP 服务器: 在终端中运行以下命令启动 MCP 服务器:
node dist/openai_mcp_server.js服务器成功启动后,会在控制台输出 'OpenAI MCP server running on stdio' 等信息。
服务器配置 (MCP 客户端)
为了让 MCP 客户端能够连接到此服务器,你需要提供以下配置信息。请注意,MCP 客户端需要能够执行 'node' 命令,并且 'dist/openai_mcp_server.js' 文件路径是相对于客户端的工作目录而言的。
{ "serverName": "openai-mcp-server", "command": "node", "args": ["dist/openai_mcp_server.js"], "transport": "stdio" }
配置参数注释:
- 'serverName': 服务器的名称,可以自定义,用于在客户端标识不同的MCP服务器。
- 'command': 启动服务器进程的命令,这里是 'node',表示使用 Node.js 运行时环境。
- 'args': 启动命令的参数列表,这里指向编译后的 MCP 服务器 JavaScript 文件 'dist/openai_mcp_server.js'。
- 'transport': 指定 MCP 服务器使用的传输协议,这里是 'stdio',表示通过标准输入输出流进行通信。
基本使用方法
此 MCP 服务器设计为与 MCP 客户端配合使用。你需要使用一个实现了 MCP 客户端的应用程序或工具,并按照其文档配置上述服务器连接信息。
一旦客户端成功连接到 MCP 服务器,客户端可以:
- 查询服务器能力: 客户端可以发送 'ListTools' 请求到服务器,获取服务器支持的工具列表及其描述和参数schema。
- 调用工具: 客户端可以使用 'CallTool' 请求调用服务器提供的工具,例如 'generate_text' 或 'analyze_code',并传入符合工具参数schema的参数。服务器会执行相应的工具(例如调用OpenAI API),并将结果以 MCP 响应格式返回给客户端。
具体的操作方式和界面取决于你使用的 MCP 客户端,请参考你所用客户端的文档进行操作。
信息
分类
AI与计算