找到 1 个结果
基于 Model Context Protocol(MCP)的通用后端实现,提供 dialectical 问答流程、自动编码工作流、资源与工具管理,以及基于 Prompt 的模板渲染。通过 JSON-RPC 与客户端通信,支持资源读取、工具调用、Prompt 获取与渲染等核心 MCP 功能,并实现会话管理、能力声明以及多传输通道的扩展能力(如 StdIO、SSE、WebSocket 等)以为 LLM 客户端提供安全、可扩展的上下文服务框架。