找到 2 个结果
基于 Model Context Protocol (MCP) 的后端服务器实现,向大模型客户端提供可读的资源、可注册并执行的工具,以及可渲染的提示模板,采用 JSON-RPC 形式在 stdio、HTTP(Streamable HTTP/SSE)等传输协议下进行通信,支持会话管理、能力声明与多传输通道扩展。该仓库同时提供完整的服务端实现与配套客户端示例,便于将大模型接入为上下文服务与外部功能入口。
基于 FastMCP 的 MCP 服务器,实现对资源、工具与 prompts 的统一管理,并通过 Streamable HTTP 向 LLM 客户端提供图片/文件上传、列表查询等能力,底层使用 MinIO 进行对象存储。