标签搜索结果
基于 Model Context Protocol (MCP) 的后端服务器实现,向 MCP 客户端提供资源、工具与提示模板等上下文能力,通过 JSON-RPC 进行请求/响应处理,并支持会话管理与多传输协议扩展,适用于将 LLM 客户端接入 Sentinel AI 的上下文服务框架。
基于 Model Context Protocol 的 MCP 服务器,提供沙箱资源管理、工具注册执行和提示模板渲染等功能,并通过 JSON-RPC 与 LLM 客户端通信。