基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端提供标准化的上下文资源、可调用的工具(Tools)以及可渲染的 Prompt 模板,采用 JSON-RPC 与客户端通信,支持会话管理、能力声明,并可通过多种传输通道(如标准输入/输出、SSE、WebSocket 等)实现安全、可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端提供标准化的上下文资源、可调用的工具(Tools)以及可渲染的 Prompt 模板,采用 JSON-RPC 与客户端通信,支持会话管理、能力声明,并可通过多种传输通道(如标准输入/输出、SSE、WebSocket 等)实现安全、可扩展的上下文服务。