一个AI驱动的开发效率平台,通过智能自动化和AI辅助,为Kubernetes应用部署、文档测试、组织模式及策略管理提供上下文服务和功能扩展。
LLM 驱动的 Optimizely DXP 智能运维后端,提供部署、日志、存储及数据库的自动化管理。
Serverless Web MCP Server 实现了 Model Context Protocol,允许 LLM 客户端通过标准接口部署 Web 应用到 AWS Serverless 基础设施。
MCP服务器,用于连接AI模型与Spinnaker,通过标准化接口提供Spinnaker的应用、流水线和部署信息,并支持AI模型触发Spinnaker流水线,实现AI驱动的CI/CD流程自动化。
Docker-MCP 是一个 MCP 服务器,允许用户通过 Claude AI 等 MCP 客户端管理 Docker 容器和 Docker Compose 堆栈,提供容器创建、部署、日志查看和列表等功能。