基于 Model Context Protocol (MCP) 的后端服务器实现,正式提供资源、工具与提示的插件化管理,并通过 JSON-RPC 与客户端进行交互,支持多传输协议(如标准输入输出、SSE、WebSocket),为 LLM 应用提供可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务器实现,正式提供资源、工具与提示的插件化管理,并通过 JSON-RPC 与客户端进行交互,支持多传输协议(如标准输入输出、SSE、WebSocket),为 LLM 应用提供可扩展的上下文服务。