找到 2 个结果
基于 Model Context Protocol 的后端 MCP 服务器,面向大语言模型客户端提供教育开放数据的上下文、工具调用与提示模板等能力,并通过 JSON-RPC 与客户端进行通信,支持多种传输方式(stdio 与 HTTP/SSE)以实现灵活的上下文服务。
基于 Model Context Protocol 的 MCP 服务器,利用 Gemini 的强大能力提供上下文管理和 API 缓存,优化 LLM 应用的效率和成本。