← 返回首页

"AI开发工作流"标签的搜索结果

找到 2 个结果

Ninja Multi-Module MCP Server

基于 Model Context Protocol 的后端服务器集合,提供 coder、researcher、secretary 三个独立的 MCP 服务器,用于托管资源、注册执行工具、渲染提示模板,并通过 JSON-RPC/多传输协议与 LLM 客户端交互,适用于 AI 驱动的开发工作流。

Spec-Driven Development MCP 服务器

为AI驱动的规范开发工作流提供核心服务,通过MCP协议向LLM客户端提供提示、工具和上下文。