提供与 DigitalOcean API 集成的 MCP 服务器,使大型语言模型 (LLM) 能够管理 DigitalOcean 云资源并执行操作。
基于MCP协议实现的Azure云服务后端,提供通过Azure CLI对云资源的访问与管理。
通过 Model Context Protocol (MCP) 连接 AI 客户端与 DigitalOcean 资源,实现智能化的云管理。
基于 Model Context Protocol (MCP) 连接 Gridscale API 的服务器,使 AI 模型能通过标准接口管理云资源。
连接大型语言模型到 Google Cloud Platform 的 MCP 服务器,允许 LLM 调用 GCP API 查询资源信息。
一个基于MCP协议的服务端,使AI助手能够执行基础设施即代码 (IaC) 操作,集成Ansible和Terraform。
一个实现 Model Context Protocol (MCP) 规范的服务器,使AI助手能够通过标准化方式与Azure服务进行交互。
通过 MCP 协议为 LLM 提供 AWS CLI 工具,实现自然语言操作和管理 AWS 云资源。
为AI助手提供访问和管理KubeBlocks Cloud资源的标准MCP接口,实现云资源自动化管理和数据分析。
该项目是一个MCP服务器实现,允许LLM客户端通过标准协议与Sakura Cloud基础设施交互,管理云资源和服务。
一个轻量级的MCP服务器,允许AI助手安全地执行OpenStack CLI命令,管理OpenStack云资源。
基于Model Context Protocol,为AI提供访问阿里云DataWorks Open API的标准化工具,实现云资源操作和管理。
Firefly MCP服务器是一个基于Model Context Protocol的应用后端,用于连接Firefly平台,提供云和SaaS资源发现、管理和IaC codify功能。
Bunnyshell MCP 服务器通过 Model Context Protocol 协议,为 LLM 应用提供管理 Bunnyshell 云平台资源的能力,例如项目、环境和组件。
Terraform Cloud MCP Server是一个允许通过自然语言与Claude对话来管理Terraform Cloud基础设施的MCP服务器。
GCP MCP 是一个 MCP 服务器,允许 Claude 等 AI 助手通过自然语言安全地查询和管理 Google Cloud Platform (GCP) 资源,简化云环境交互。
AWS MCP 是一个 MCP 服务器,旨在让 Claude 等 AI 助手通过自然语言与您的 AWS 环境交互,实现 AWS 资源的查询和管理。