一个基于Model Context Protocol (MCP) 的后端服务,为AI助手提供多平台Git Pull Request管理和自动化能力,支持资源访问和工具调用。
一个将AWS Application Signals和S3能力通过MCP提供给LLM的服务器。
基于MCP协议,提供自动化基础设施管理能力的服务器,支持部署、配置和资源分配。
pg-schema-sync MCP服务器是一个应用后端,它基于Model Context Protocol,封装了pg-schema-sync工具,通过标准化的MCP协议向LLM客户端提供PostgreSQL数据库Schema同步和管理功能。
Docker-MCP 是一个 MCP 服务器,允许用户通过 Claude AI 等 MCP 客户端管理 Docker 容器和 Docker Compose 堆栈,提供容器创建、部署、日志查看和列表等功能。