基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、Prompts 定义以及通过 JSON-RPC 的 MCP 协议与 LLM 客户端交互,支持流式传输、SSE、OAuth2PKCE、会话管理与长时记忆分片系统等能力,面向 AI 记忆与上下文服务场景的可扩展后端。
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具注册与执行、Prompts 定义以及通过 JSON-RPC 的 MCP 协议与 LLM 客户端交互,支持流式传输、SSE、OAuth2PKCE、会话管理与长时记忆分片系统等能力,面向 AI 记忆与上下文服务场景的可扩展后端。