基于 Model Context Protocol (MCP) 的后端服务器,为 MCP 客户端(如 LLM)提供统一的上下文资源、工具执行和提示模板渲染能力,用于自动化的 GitHub 问题管理、代码修复工作流,并支持多种传输协议与会话能力。
基于 FastAPI 和 PydanticAI 的 API 模板,内置 MCP 服务器,为 LLM 应用提供工具和上下文服务。
基于 Azure Functions 构建的远程 MCP 服务器,提供代码片段的存储和检索工具,并通过 SSE 协议与客户端通信。