基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行,以及提示模板渲染能力,通过 JSON-RPC 与 LLM 客户端进行交互,支持多种传输方式(如 StdIO/SSE/WebSocket)以在本地模型对话中提供统一的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行,以及提示模板渲染能力,通过 JSON-RPC 与 LLM 客户端进行交互,支持多种传输方式(如 StdIO/SSE/WebSocket)以在本地模型对话中提供统一的上下文服务。