标签搜索结果
基于 Model Context Protocol 的本地后端实现,作为 MCP 服务器向 LLM 客户端提供资源托管、工具注册与执行、以及可渲染的 Prompt 模板等上下文服务,并通过 JSON-RPC 与客户端通信,支持多传输协议与会话管理,便于在本地环境调试 AI 驅动的移动开发工作流。