找到 1 个结果
基于 Model Context Protocol (MCP) 的后端服务器实现,提供向 LLM 客户端暴露资源、注册与执行工具、以及渲染提示模板的能力,并通过 JSON-RPC/多传输协议与客户端互动,内置对 Confluence、Slack、Swagger 等外部工具的集成。