使用说明

项目简介

Vercel AI MCP Server 是一个实现了 Model Context Protocol (MCP) 的服务器,旨在为大型语言模型 (LLM) 客户端提供标准化的上下文服务。该服务器集成了 OpenAI 和 Mistral 两个流行的 AI 模型提供商,通过简单的工具调用,即可实现文本生成和结构化数据生成等功能。

主要功能点

  • 集成 OpenAI 和 Mistral 模型: 支持 gpt-4-turbo, gpt-4, gpt-3.5-turbo, mistral-large-latest, mistral-small-latest, pixtral-large-latest 等多种模型。
  • 文本生成工具 (generate_text): 允许客户端调用 OpenAI 或 Mistral 模型生成文本内容,支持设置模型、提示词 (prompt)、系统提示 (system prompt) 以及 Mistral 特有的安全提示 (safePrompt) 功能。
  • 结构化数据生成工具 (generate_structured): 支持客户端根据提供的 JSON Schema,调用 AI 模型生成符合结构化数据的文本内容。
  • 基于 Stdio 的传输协议: 使用标准的 Stdio (标准输入输出) 作为 MCP 服务器的传输协议,方便集成和部署。
  • 工具能力声明: 通过 MCP 协议声明服务器提供的工具列表及其详细信息,方便客户端理解和调用。

安装步骤

  1. 克隆仓库:
    git clone https://github.com/itsDarianNgo/mcp-vercel-ai.git
    cd mcp-vercel-ai
  2. 安装依赖: 确保你已安装 Node.js 18 或更高版本。
    npm install
  3. 配置环境变量: 创建 '.env' 文件,并根据需要配置 OpenAI 和 Mistral 的 API 密钥。例如:
    OPENAI_API_KEY=你的OpenAI_API_密钥
    MISTRAL_API_KEY=你的Mistral_API_密钥

服务器配置

MCP 客户端需要配置以下 JSON 格式的信息来启动和连接 Vercel AI MCP Server。

{
  "serverName": "vercel-ai-mcp-server",  // MCP 服务器的名称,可以自定义
  "command": "node",                   // 启动服务器的命令,这里使用 node 运行 JavaScript 文件
  "args": ["dist/index.js"]             // 启动命令的参数,指向编译后的服务器入口文件 (通常为 dist/index.js)
}

配置参数注释:

  • 'serverName': MCP 服务器的名称,客户端可以用来标识不同的 MCP 服务器。
  • 'command': 启动 MCP 服务器的可执行命令。对于 Node.js 项目,通常是 'node'。
  • 'args': 传递给 'command' 的参数列表。这里指向编译后的 'index.js' 文件,该文件是 Vercel AI MCP Server 的入口点。请注意,实际部署时可能需要先进行编译,并将入口文件指向编译后的路径,例如 'dist/index.js'。 如果直接运行 'src/index.js',则 'args' 应为 '["src/index.js"]'。

基本使用方法

  1. 启动 MCP 服务器: 在项目根目录下,运行以下命令启动服务器 (假设已编译,入口文件为 'dist/index.js'):

    node dist/index.js

    或者 (如果直接运行 'src/index.js'):

    node src/index.js

    服务器成功启动后,会在控制台输出 'OpenAI MCP Server running on stdio'。

  2. 配置 MCP 客户端: 在你的 MCP 客户端应用中,配置上述提供的服务器配置 JSON,并确保客户端能够通过 Stdio 与服务器建立连接。

  3. 调用工具: 客户端连接到服务器后,可以发送 MCP 请求调用服务器提供的工具,例如 'generate_text' 或 'generate_structured',并按照工具定义的输入 Schema 传递参数,即可利用 OpenAI 或 Mistral 模型进行文本生成或结构化数据生成。 具体工具的调用方式请参考 MCP 客户端 SDK 的文档。

信息

分类

AI与计算