基于 Model Context Protocol (MCP) 的后端服务器集合,提供以 JSON-RPC 方式向 LLM 客户端暴露的资源管理、工具执行与提示渲染等能力,用以构建端到端的性能测试、分析与报告管线。仓库中包含多路 MCP 服务器实现(如 JMeter、BlazeMeter、Datadog、Perf Analysis、Confluence、Microsoft Graph 等),实现资源、工具、提示的注册与执行,以及 JMeter JMX 生成、数据汇总、报表输出等功能,支持多种传输协议(如 stdio、WebSocket、SSE),具备会话管理、能力声明与跨服务器协作能力,旨在为 LLM 驱动的性能测试流水线提供稳定的后端上下文与接口服务。
为LLM客户端提供标准化的上下文信息和功能,实现对OpenShift/Kubernetes集群的监控、管理和性能测试。