项目简介
LLAMATOR MCP 服务器是一个基于 Model Context Protocol (MCP) 的自动化 LLM 红队测试平台。它将 LLAMATOR 红队测试框架封装为MCP工具,让AI助手能够通过标准化的协议调用LLM安全测试功能。
主要功能点
- 红队测试自动化:通过预设测试方案或自定义测试配置,对目标LLM模型进行安全漏洞检测
- 双接口支持:同时提供 HTTP REST API 和 MCP 协议接口
- 作业队列管理:使用 Redis 和 ARQ 工作进程来管理测试任务
- 多模型支持:支持攻击模型、测试模型和裁判模型的独立配置
- 结果追踪与报告:实时监控测试状态,生成详细测试报告和日志
- 安全机制:支持 API 密钥认证,自动过滤敏感信息
安装步骤
-
克隆仓库
git clone https://github.com/CSU-ITMO-2025-2/team11-llamator-mcp -
使用 Docker Compose 快速启动
docker compose up --build -
配置环境变量
- 设置 Redis 连接地址
- 配置 OpenAI 兼容的模型端点(如 LM Studio、vLLM等)
# 示例配置 LLAMATOR_MCP_ATTACK_OPENAI_BASE_URL=http://localhost:1234/v1 - 配置攻击模型、测试模型和裁判模型 - 设置 API 密钥(可选)
MCP客户端配置
将以下配置添加到您的MCP客户端设置中:
{ "mcpServers": { "llamator": { "command": "docker", "args": [ "compose", "run", "--rm", "api" } } }
配置说明:
- command: 使用 Docker 命令启动服务
- args: 通过 Docker Compose 运行 API 容器
- 服务器默认运行在端口 8000,可通过环境变量调整
- MCP 接口默认挂载在 '/mcp' 路径下
- 如果启用了 API 密钥认证,需要在请求头中添加 'X-API-Key'
基本使用方法
-
通过HTTP API提交测试
- 发送 POST 请求到 '/v1/tests/runs' 创建测试任务
- 轮询任务状态,查看测试结果
- 下载生成的测试报告和日志文件
-
通过MCP工具调用
- 使用 'create_llamator_run' 工具提交测试请求并等待完成
- 使用 'get_llamator_run' 工具获取已完成任务的测试结果
服务器会自动执行LLAMATOR测试框架,生成详细的漏洞评估报告。
信息
分类
AI与计算