基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具调用以及资源渲染的服务端能力,并通过 JSON-RPC/ SSE 方式与客户端通信,支持多会话与会话管理,适用于在后端向 LLM 客户端提供可扩展的上下文服务。
基于Model Context Protocol (MCP) 标准,为LLM客户端提供OpenAI SDK知识问答、代码示例和文档搜索的智能后端服务。
基于 Model Context Protocol 的 MCP 服务器实现,提供资源托管、工具调用以及资源渲染的服务端能力,并通过 JSON-RPC/ SSE 方式与客户端通信,支持多会话与会话管理,适用于在后端向 LLM 客户端提供可扩展的上下文服务。
基于Model Context Protocol (MCP) 标准,为LLM客户端提供OpenAI SDK知识问答、代码示例和文档搜索的智能后端服务。