标签搜索结果
基于 Model Context Protocol (MCP) 的后端服务器实现,提供通过 Gemini 的 AI 能力进行资源管理、工具执行、以及提示模板渲染等功能,并通过 JSON-RPC 与客户端进行通信,支持多种传输方式以为 LLM 客户端提供可扩展的上下文服务。