基于 Model Context Protocol 的后端服务,通过 JSON-RPC 方式向 LLM 客户端提供监控、部署与故障分析相关的工具接口,支持通过标准化请求-响应模式执行工具、查询部署信息等,服务器端实现了工具注册、请求处理与错误封装,通信以 STDIO 为载体。
基于 MCP(Model Context Protocol)的服务器实现,暴露 minecontext_screen_context 工具以供 MCP 客户端读取 MineContext 摘要并进行后续的 LLM 推理分析等。该仓库提供通过 FastMCP 构建的 MCP 服务端,能够接收请求、返回结构化上下文摘要,并与本地 MineContext 服务对接。
K8sGPT 是一款用于扫描 Kubernetes 集群、诊断并以自然语言解释问题,并可作为 MCP 服务器为 LLM 客户端提供上下文的服务端应用。