找到 4 个结果
一个基于 Model Context Protocol (MCP) 的完整 MCP 服务器实现,作为后端上下文服务向 LLM 客户端提供资源管理、工具执行和 Prompt 渲染等能力。服务器通过 MCP 标准接口处理来自 LLM 的请求,管理会话与能力声明,并使用 SQLite 持久化资源状态与依赖关系,支持通过 stdio 传输渠道与客户端进行通信,便于在本地或集成开发环境中快速原型与迭代。
基于 Model Context Protocol (MCP) 的后端服务器,向 LLM 客户端提供资源管理、工具执行和提示模板等上下文服务,支持多传输协议、会话管理与本地历史记录,为 AI 驱动的安全挑战赛场景提供后端支撑。
基于 Model Context Protocol (MCP) 的后端服务,提供知识图谱资源管理、工具执行、以及提示模板渲染等功能,通过 JSON-RPC/流式传输与大型语言模型客户端进行交互。
基于 Model Context Protocol (MCP) 的多服务器后端架构,提供任务规划/执行路由、工具注册与执行、资源管理、提示模板渲染,以及面向 LLM 客户端的标准化 JSON‑RPC/流式交互,支持多租户、 HITL 审批、以及 PostgreSQL 持久化存储等能力。