使用说明
项目简介
'inference-worker' 是一个 MCP 服务器,它充当其他软件与 Cerebras AI 推理平台之间的桥梁。通过此服务器,你可以将任务提交到 Cerebras 平台进行 AI 模型推理,并将结果返回给你的应用程序。
主要功能点
- 任务提交: 允许用户提交文本任务到 Cerebras AI 推理平台进行处理。
- 工具: 提供 'submit_task' 工具,用于将任务发送到 Cerebras AI 进行推理。
安装步骤
- 克隆仓库:
git clone https://github.com/Cristie-Lenahan/inference-worker - 进入目录:
cd inference-worker - 安装依赖:
npm install
服务器配置
MCP 客户端需要配置以下信息以连接到 'inference-worker' 服务器。请确保你已安装 Node.js 和 npm,并拥有 Cerebras AI API 密钥。
{ "serverName": "inference-worker", "command": "npm", "args": ["start"], "env": { "CEREBRAS_API_KEY": "<你的 Cerebras API 密钥>" }, "protocol": "stdio" }
配置参数说明:
- 'serverName': 服务器名称,可以自定义。
- 'command': 启动服务器的命令,这里使用 'npm'。
- 'args': 启动命令的参数,'start' 对应 'package.json' 中的 'start' 脚本。
- 'env': 环境变量配置,你需要将 '<你的 Cerebras API 密钥>' 替换为你的实际 Cerebras API 密钥。API 密钥也可以配置在项目根目录的 '.env' 文件中(参考仓库 README)。
- 'protocol': 通信协议,这里使用 'stdio'。
基本使用方法
- 确保已按照 服务器配置 中的说明配置了 Cerebras API 密钥。
- 启动 'inference-worker' 服务器。在项目根目录下运行命令:
npm start - 在 MCP 客户端中,配置连接到 'inference-worker' 服务器。
- 使用 MCP 客户端调用 'submit_task' 工具,并提供需要推理的任务文本作为输入。服务器会将任务发送到 Cerebras AI 平台进行处理,并将推理结果返回给客户端。
信息
分类
AI与计算