基于 Model Context Protocol (MCP) 的后端服务,提供技能资源管理、工具注册与执行、以及提示模板渲染,向 LLM 客户端以标准 JSON-RPC 交互提供上下文与能力,支持多传输接口与会话管理。适合作为 AI 代理的可扩展上下文服务端。
基于 Model Context Protocol (MCP) 的后端服务,提供技能资源管理、工具注册与执行、以及提示模板渲染,向 LLM 客户端以标准 JSON-RPC 交互提供上下文与能力,支持多传输接口与会话管理。适合作为 AI 代理的可扩展上下文服务端。