找到 3 个结果
基于 Model Context Protocol 的 MCP 服务器实现,提供以标准化方式向 LLM 客户端提供上下文信息和功能的能力。通过 JSON-RPC 与客户端通信,核心包含工具注册/执行、提示模板渲染,以及与资源/查询接口的集成。当前实现使用 stdio 传输,在服务端对接 Linggen 后端 API 提供的能力,支撑 LLM 在设计、索引与查询场景中的上下文服务。
基于模型上下文协议(MCP)的 Rust 实现,提供服务器端与客户端的完整 MCP 功能,包括资源、工具、提示的托管与管理,以及通过 JSON-RPC 的请求/响应处理,支持多传输通道(stdio、TCP、HTTP SSE)与会话管理,面向在 AI 应用中提供上下文与功能的后端服务。
基于 Model Context Protocol 的后端组件,提供对外部 MCP 服务器的注册、配置与工具集成能力,向 LLM 客户端以标准化方式暴露资源、工具和提示模板。实现了对 MCP 传输(stdio、SSE)的适配、工具集成、以及与 Go 生态中 ADK 的工具集管理能力,帮助后端应用以统一上下文服务形式对接大语言模型。