基于 Model Context Protocol (MCP) 的后端服务器,实现对资源、工具和提示模板的注册与暴露,供 LLM 客户端通过 JSON-RPC 与之通信,从而向客户端提供可验证的代码上下文、外部功能调用与自定义提示渲染能力,并支持流式传输的 MCP 应用接口。
基于 Model Context Protocol (MCP) 的后端服务器,实现对资源、工具和提示模板的注册与暴露,供 LLM 客户端通过 JSON-RPC 与之通信,从而向客户端提供可验证的代码上下文、外部功能调用与自定义提示渲染能力,并支持流式传输的 MCP 应用接口。