基于 MCP 架构的后端服务器,向 LLM 客户端标准化提供资源、工具和提示(Prompts)等上下文与能力,通过 JSON-RPC 进行请求/响应,并支持多传输协议(如 Stdio/SSE/WebSocket)与会话管理,用于构建安全、可拓展的 AI 应用后台。
基于 MCP 架构的后端服务器,向 LLM 客户端标准化提供资源、工具和提示(Prompts)等上下文与能力,通过 JSON-RPC 进行请求/响应,并支持多传输协议(如 Stdio/SSE/WebSocket)与会话管理,用于构建安全、可拓展的 AI 应用后台。