找到 3 个结果
基于 Model Context Protocol 的后端网关,统一管理并暴露工具、资源和提示模板,支持多传输协议、元MCP、热加载与认证机制,为大语言模型(LLM)提供安全、可扩展的上下文服务。
基于 Model Context Protocol (MCP) 的后端服务,提供知识图谱资源管理、工具执行、以及提示模板渲染等功能,通过 JSON-RPC/流式传输与大型语言模型客户端进行交互。
一个统一的 MCP 代理服务器,聚合多个 MCP 服务器、内置工具和文档管理功能,为 LLM 提供丰富上下文服务。