LLM 驱动的 Optimizely DXP 智能运维后端,提供部署、日志、存储及数据库的自动化管理。
基于 Model Context Protocol (MCP),为 LLM 客户端提供搜索 Azure Wiki 知识库并获取内容的能力。
一个基于 Model Context Protocol (MCP) 的服务器,使大型语言模型能够通过标准化的工具与 Kubernetes 集群交互。
智能化的 Kubernetes 资源管理与故障诊断平台,通过自然语言交互简化云原生运维操作。
Ares DevOps MCP Server为LLM应用提供Azure DevOps上下文服务,支持代码仓库、Pull Request和流水线管理等DevOps工具的调用。
一个MCP服务器,通过工具集成了Azure DevOps REST API,为LLM应用提供访问Azure DevOps项目数据的能力。
为AI助手提供Bitbucket云平台的实时访问桥梁,通过MCP协议安全连接代码仓库、拉取请求和工作空间。
JFrog MCP Server 允许 LLM 客户端安全地与 JFrog 平台交互,实现仓库管理、构建跟踪、运行时监控和工件搜索等功能。
该项目实现了Model Context Protocol (MCP) 服务器,为LLM客户端提供访问和操作Azure DevOps平台的能力,包括项目、代码仓库、工作项等资源的管理和操作工具。
一个基于Model Context Protocol (MCP) 构建的服务器,为AI助手提供访问和操作Azure DevOps各项服务(如项目、代码仓库、工作项等)的能力。
Bunnyshell MCP 服务器通过 Model Context Protocol 协议,为 LLM 应用提供管理 Bunnyshell 云平台资源的能力,例如项目、环境和组件。
一个用 Go 语言实现的 MCP 服务器,为 LLM 提供访问和操作 GitHub 资源的标准化接口,支持代码仓库、Issue、Pull Request、文件等多种 GitHub API 功能。
此项目是一个MCP服务器,用于管理AWS CodePipeline,通过工具提供流水线操作和信息查询能力,方便LLM客户端集成和自动化CI/CD流程。
Azure DevOps MCP服务器桥接器,通过自然语言界面连接Azure DevOps、GitHub、Slack等DevOps工具,并支持AI Agent自主执行任务。
Azure DevOps MCP服务器为AI助手提供标准接口,使其能够安全访问和操作Azure DevOps的项目、工作项、代码仓库等资源。
Metoro MCP Server是一个Kubernetes可观测性工具,通过Model Context Protocol (MCP) 协议,使得LLM应用能够安全便捷地访问和分析Kubernetes集群的metrics、logs、traces和events等数据,实现AI驱动的Kubernetes运维和监控。
Spinnaker MCP Server是一个应用后端,通过Model Context Protocol (MCP) 协议,为LLM客户端提供访问和控制Spinnaker CI/CD平台的能力,实现AI驱动的持续交付自动化。
为LLM客户端提供Bitbucket Server Pull Request管理工具的MCP服务器实现。
Azure DevOps MCP Server 是一个基于 Model Context Protocol 的服务器实现,旨在将 Azure DevOps 的各项服务(如工作项、流水线、代码仓库等)集成到 Cline 等 MCP 客户端,为 LLM 应用提供 DevOps 上下文和自动化能力。
MCP K8S Go 是一个基于 Golang 的 MCP 服务器,它连接到 Kubernetes 集群,为 LLM 应用提供访问 Kubernetes 资源和执行操作的能力。