基于 Model Context Protocol 的后端服务器,为 LLM 客户端提供标准化的上下文信息和能力服务。核心功能包括托管和管理 资源(Resources)、注册与执行 Tools、以及定义与渲染 Prompt 模板(Prompts),并通过 JSON-RPC 与客户端通信,支持多种传输模式(如 STDIO、HTTP、WebSocket),整合节点管理、RBAC 权限控制和 Zenoh 通信等组件,用于在硬件/物联网场景中提供安全、可扩展的上下文服务框架。
基于 Model Context Protocol 的后端服务器,为 LLM 客户端提供标准化的上下文信息和能力服务。核心功能包括托管和管理 资源(Resources)、注册与执行 Tools、以及定义与渲染 Prompt 模板(Prompts),并通过 JSON-RPC 与客户端通信,支持多种传输模式(如 STDIO、HTTP、WebSocket),整合节点管理、RBAC 权限控制和 Zenoh 通信等组件,用于在硬件/物联网场景中提供安全、可扩展的上下文服务框架。