基于 Model Context Protocol (MCP) 的后端实现,提供资源/工具/提示模板的管理与渲染,通过 JSON-RPC 与 LLM 客户端进行交互,支持 HTTP 与 STDIO 等传输模式的多种通信方式。
此MCP服务器为LLM应用提供访问Figma设计文件的能力,支持大文件分块和分页加载,优化内存使用。
基于 Model Context Protocol (MCP) 的后端实现,提供资源/工具/提示模板的管理与渲染,通过 JSON-RPC 与 LLM 客户端进行交互,支持 HTTP 与 STDIO 等传输模式的多种通信方式。
此MCP服务器为LLM应用提供访问Figma设计文件的能力,支持大文件分块和分页加载,优化内存使用。