找到 1 个结果
基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源(Resources)托管与访问、工具(Tools)注册与执行,以及可配置的 Prompt 模板(Prompts)渲染,采用 JSON-RPC 通信,支持多种传输协议(如 stdio、HTTP 等),为 LLM 客户端提供安全、可扩展的上下文服务框架。