← 返回首页

"持续集成"标签的搜索结果

找到 11 个结果

Evergreen CI/CD MCP 服务器

为 AI 助手提供 MongoDB Evergreen 持续集成平台的项目、构建、任务和测试结果访问能力

GitLab MCP 服务器

连接AI助手与GitLab的MCP服务器,支持查询合并请求、获取测试报告、查看流水线和参与代码评审。

Azure DevOps MCP 服务器

一个本地运行的MCP服务器,使大型语言模型 (LLM) 客户端能够直接访问、查询和操作 Azure DevOps 的项目、工作项、代码、管道和Wiki等资源。

Workflows MCP 服务器

一个功能强大的Model Context Protocol (MCP) 服务器,将复杂的自动化任务转化为简单的、可由LLM驱动的工作流定义。

Shadow CLJS 构建监控 MCP 服务器

该项目是一个 MCP 服务器,用于监控 shadow-cljs 的构建状态,并向 LLM 提供实时的构建信息,以便 LLM 在 ClojureScript 代码编辑后验证构建结果。

CircleCI MCP Server

CircleCI MCP Server 是一个基于 Model Context Protocol 的服务器,允许 LLM 客户端通过自然语言与 CircleCI 进行交互,例如检索构建日志。

mcp server spinnaker

MCP服务器,用于连接AI模型与Spinnaker,通过标准化接口提供Spinnaker的应用、流水线和部署信息,并支持AI模型触发Spinnaker流水线,实现AI驱动的CI/CD流程自动化。

Xcode mcp server

PolarVista Xcode MCP Server 是一个基于 Model Context Protocol 的服务器,允许 LLM 应用通过标准接口构建和测试 Xcode 项目。

Test Runner

Test Runner MCP 是一个 MCP 服务器,用于运行和解析多种测试框架的测试结果,为 LLM 应用提供统一的测试执行接口。

Jenkins

Jenkins MCP服务器,允许LLM客户端通过工具调用管理Jenkins任务,包括列出任务、触发构建和查询构建状态。

Azure DevOps Server

Azure DevOps MCP Server 是一个基于 Model Context Protocol 的服务器实现,旨在将 Azure DevOps 的各项服务(如工作项、流水线、代码仓库等)集成到 Cline 等 MCP 客户端,为 LLM 应用提供 DevOps 上下文和自动化能力。