标签搜索结果
基于 Model Context Protocol (MCP) 的后端服务器实现,向 LLM 客户端提供资源管理、工具执行和 Prompt 渲染等上下文服务,支持 JSON-RPC 通信与多传输通道(此实现以标准输入/输出(stdio)为通信介质)并实现了初始化、工具与资源查询等核心功能。