使用说明

项目简介

本项目 'Ai-platform' 提供了一个AI平台模板,其中包含了基于Model Context Protocol (MCP) 的服务器实现。该MCP服务器主要集成了OpenAI的API,为LLM客户端提供了文本生成 ('generate_text') 和代码分析 ('analyze_code') 这两个工具。通过遵循MCP协议,该服务器能够以标准化的方式与任何兼容MCP协议的LLM客户端进行通信,从而扩展LLM的能力边界。

主要功能点

  • MCP 服务器实现: 基于Node.js和MCP SDK构建,实现了MCP协议的核心功能,能够处理来自客户端的JSON-RPC请求并返回响应。
  • 工具注册与执行: 注册了 'generate_text' 和 'analyze_code' 两个工具,允许LLM客户端调用OpenAI的API进行文本生成和代码分析。
  • Stdio 传输协议: 使用标准输入输出 (Stdio) 作为MCP服务器与客户端之间的通信协议。
  • OpenAI 集成: 无缝集成了OpenAI的API,使得LLM可以通过MCP服务器间接调用OpenAI的功能。
  • 能力声明: 服务器声明了自身提供的工具能力,客户端可以通过查询获取这些信息。

安装步骤

  1. 克隆仓库:

    git clone https://github.com/kenlester/Ai-platform.git
    cd Ai-platform
  2. 安装 Node.js 依赖: 确保你的系统已安装 Node.js 和 npm。在仓库根目录下运行:

    npm install
  3. 设置 OpenAI API 密钥: 你需要设置 'OPENAI_API_KEY' 环境变量,用于OpenAI API的鉴权。例如,在Linux/macOS系统中,你可以在终端中执行:

    export OPENAI_API_KEY="YOUR_OPENAI_API_KEY"

    请将 'YOUR_OPENAI_API_KEY' 替换为你的实际 OpenAI API 密钥。

  4. 构建项目: 运行以下命令编译 TypeScript 代码:

    npm run build
  5. 启动 MCP 服务器: 在终端中运行以下命令启动 MCP 服务器:

    node dist/openai_mcp_server.js

    服务器成功启动后,会在控制台输出 'OpenAI MCP server running on stdio' 等信息。

服务器配置 (MCP 客户端)

为了让 MCP 客户端能够连接到此服务器,你需要提供以下配置信息。请注意,MCP 客户端需要能够执行 'node' 命令,并且 'dist/openai_mcp_server.js' 文件路径是相对于客户端的工作目录而言的。

{
  "serverName": "openai-mcp-server",
  "command": "node",
  "args": ["dist/openai_mcp_server.js"],
  "transport": "stdio"
}

配置参数注释:

  • 'serverName': 服务器的名称,可以自定义,用于在客户端标识不同的MCP服务器。
  • 'command': 启动服务器进程的命令,这里是 'node',表示使用 Node.js 运行时环境。
  • 'args': 启动命令的参数列表,这里指向编译后的 MCP 服务器 JavaScript 文件 'dist/openai_mcp_server.js'。
  • 'transport': 指定 MCP 服务器使用的传输协议,这里是 'stdio',表示通过标准输入输出流进行通信。

基本使用方法

此 MCP 服务器设计为与 MCP 客户端配合使用。你需要使用一个实现了 MCP 客户端的应用程序或工具,并按照其文档配置上述服务器连接信息。

一旦客户端成功连接到 MCP 服务器,客户端可以:

  1. 查询服务器能力: 客户端可以发送 'ListTools' 请求到服务器,获取服务器支持的工具列表及其描述和参数schema。
  2. 调用工具: 客户端可以使用 'CallTool' 请求调用服务器提供的工具,例如 'generate_text' 或 'analyze_code',并传入符合工具参数schema的参数。服务器会执行相应的工具(例如调用OpenAI API),并将结果以 MCP 响应格式返回给客户端。

具体的操作方式和界面取决于你使用的 MCP 客户端,请参考你所用客户端的文档进行操作。

信息

分类

AI与计算