基于 Model Context Protocol 的 MCP 服务器实现(集成于 Edda 框架),通过 JSON-RPC/多传输协议向 LLM 客户端暴露 durable workflows、资源和工具,并支持 Prompts 渲染,方便 AI 助手与后端工作流进行长期上下文交互和功能调用。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源/工具/提示模板的托管与管理,并通过 MCP 协议向 LLM 客户端暴露上下文服务、数据访问与外部功能调用能力。支持多种传输方式(HTTP/JSON-RPC、SSE、WebSocket/流式)以及多用户隔离。