基于 Model Context Protocol (MCP) 的后端实现,承担资源、工具、 Prompt 模板等的托管与管理,并通过 JSON-RPC 与 LLM 客户端进行通信,提供会话管理、能力声明、以及多传输协议支持(HTTP、SSE、WebSocket)的上下文服务框架,供前端仪表盘、Captain 编排与代理执行组件协同工作。
一个现代化、生产就绪的Model Context Protocol (MCP) 服务器,用于将Node-RED的流、节点和运行时信息暴露给大型语言模型(LLM)客户端。