找到 1 个结果
基于 Model Context Protocol (MCP) 的后端服务器,为大型语言模型(LLM)客户端提供标准化的上下文、工具调用和提示渲染能力,支持资源管理、工具注册与执行,以及提示模板渲染等功能,默认通过标准输入/输出(JSON-RPC over STDIO)进行通信。