基于 Model Context Protocol(MCP)的后端实现,提供资源(Resource)、工具(Tools)、提示模板(Prompts)的托管、注册与渲染,客户端通过 JSON-RPC 与服务器通信,支持多会话管理、能力声明,以及多传输协议(如 Stdio、SSE、WebSocket),为LLM应用提供可扩展的上下文与功能服务。
基于 Model Context Protocol(MCP)的后端实现,提供资源(Resource)、工具(Tools)、提示模板(Prompts)的托管、注册与渲染,客户端通过 JSON-RPC 与服务器通信,支持多会话管理、能力声明,以及多传输协议(如 Stdio、SSE、WebSocket),为LLM应用提供可扩展的上下文与功能服务。