标签搜索结果
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)、工具(Tools)注册与执行,以及 Prompts 的定义与渲染,向 LLM 客户端以标准化方式暴露上下文与功能,并通过 JSON-RPC/HTTP 等协议进行通信,支持会话管理与多种传输途径,致力于为 LLM 应用提供可扩展的上下文服务框架。