Threat Composer MCP 服务器

使用说明 (Markdown 格式)

项目简介

  • Threat Composer MCP 服务器是 Threat Composer 生态的一部分,提供基于 MCP 的服务端能力,允许 LLM 客户端通过标准化的 JSON-RPC 调用读取资源、注册并调用工具,以及获取和渲染提示模板等上下文信息。

主要功能点

  • 资源与数据管理:通过 MCP 服务器对 Threat Composer 的资源、数据和工作流进行托管与访问。
  • 工具注册与执行:注册可供 LLM 调用的外部工具,实现对外部功能的扩展能力。
  • Prompt 模板定义与渲染:定义并渲染可定制化的提示模板,支持多种交互模式。
  • JSON-RPC 通信:服务器通过 JSON-RPC 与客户端通信,接收请求并返回结构化响应。
  • 会话与能力声明:维护会话状态、能力声明,确保安全和可控的扩展性。
  • 多传输协议支持:设计上考虑 Stdio、SSE、WebSocket 等传输方式,以适配不同环境的客户端需求。

安装与运行

  • 运行环境与依赖
    • 该 MCP 服务器是 Threat Composer 项目的一部分,包含 Python 实现和相关 CLI/MCP 组件。请确保你的运行环境具备 Python 及相关依赖(如 uv、Bedrock 相关组件、跨代理协作所需库)。
  • 安装与启动方式(示例)
    • 使用 uv 工具从仓库中安装并启用 MCP 服务器包(示例来自项目文档中的做法):
      • 通过 uv 安装 Threat Composer AI 子包,包含 CLI 与 MCP 服务器的实现。
      • 启动 MCP 服务端:使用 uvx 直接运行 MCP 服务模块,或按文档示例通过配置文件启动。
    • 服务器配置(客户端无需了解此处实现细节;仅供 MCP 客户端参考)
      • MCP 客户端配置示例(文本描述,不作为代码块提供):
        • serverName: threat-composer-ai
        • command: threat-composer-ai-mcp
        • args: [](必要时可添加启动参数,如数据目录、端口等)
        • env: 可选的环境变量配置(如 AWS_PROFILE、AWS_REGION 等)
  • 服务器配置(客户端需要的配置信息)
    • MCP 客户端在连接服务器时需要的核心字段包括服务器名称、启动命令与参数等,用于建立与 MCP 服务器的通信会话。示例字段如下(以文本描述形式说明,不提供实际代码):
      • serverName: threat-composer-ai
      • command: threat-composer-ai-mcp
      • args: [可选启动参数,例如指向数据或工作区的路径]
      • 说明:具体参数根据客户端实现和运行环境而定,客户端只需读取上述字段以发起连接,绝不需要在此处提供实现细节代码。 基本使用方法
  • 连接与调用
    • 启动 MCP 服务器后,LLM 客户端通过 JSON-RPC 形式向服务器发送请求,执行资源访问、工具调用与提示渲染等操作,服务器返回结构化的 JSON-RPC 响应。
  • 会话与安全
    • 服务器负责会话管理,客户端通过认证后即可建立会话并进行跨对话的上下文交互。
  • 适用场景
    • 将 Threat Composer 的威胁模型资源与推理能力整合到 AI 助手工作流中,提升威胁建模的自动化与可扩展性。

重要提示

  • MCP 客户端配置需要的仅是服务器的启动命令及参数等信息,实际实现中客户端不需要知道服务器端的内部实现细节。
  • 根据仓库实现,存在 CLI/Server 的整合与多代理协作能力,请根据实际环境选择本地运行、云端 Bedrock 调用或组合式部署方案。

服务器信息