使用说明

项目简介

'inference-worker' 是一个 MCP 服务器,它充当其他软件与 Cerebras AI 推理平台之间的桥梁。通过此服务器,你可以将任务提交到 Cerebras 平台进行 AI 模型推理,并将结果返回给你的应用程序。

主要功能点

  • 任务提交: 允许用户提交文本任务到 Cerebras AI 推理平台进行处理。
  • 工具: 提供 'submit_task' 工具,用于将任务发送到 Cerebras AI 进行推理。

安装步骤

  1. 克隆仓库:
    git clone https://github.com/Cristie-Lenahan/inference-worker
  2. 进入目录:
    cd inference-worker
  3. 安装依赖:
    npm install

服务器配置

MCP 客户端需要配置以下信息以连接到 'inference-worker' 服务器。请确保你已安装 Node.js 和 npm,并拥有 Cerebras AI API 密钥。

{
  "serverName": "inference-worker",
  "command": "npm",
  "args": ["start"],
  "env": {
    "CEREBRAS_API_KEY": "<你的 Cerebras API 密钥>"
  },
  "protocol": "stdio"
}

配置参数说明:

  • 'serverName': 服务器名称,可以自定义。
  • 'command': 启动服务器的命令,这里使用 'npm'。
  • 'args': 启动命令的参数,'start' 对应 'package.json' 中的 'start' 脚本。
  • 'env': 环境变量配置,你需要将 '<你的 Cerebras API 密钥>' 替换为你的实际 Cerebras API 密钥。API 密钥也可以配置在项目根目录的 '.env' 文件中(参考仓库 README)。
  • 'protocol': 通信协议,这里使用 'stdio'。

基本使用方法

  1. 确保已按照 服务器配置 中的说明配置了 Cerebras API 密钥。
  2. 启动 'inference-worker' 服务器。在项目根目录下运行命令:
    npm start
  3. 在 MCP 客户端中,配置连接到 'inference-worker' 服务器。
  4. 使用 MCP 客户端调用 'submit_task' 工具,并提供需要推理的任务文本作为输入。服务器会将任务发送到 Cerebras AI 平台进行处理,并将推理结果返回给客户端。

信息

分类

AI与计算