Fragments MCP 服务器实现(WebMCP 框架集成)
Markdown 使用说明:
- 项目简介
- 该仓库提供基于 WebMCP 的 MCP 服务器实现能力,聚焦于将资源、工具、提示模板等以标准化方式暴露给 LLM 客户端,并通过 JSON-RPC 进行通信。
- 主要功能点
- 资源(Resource)托管与访问:用于向客户端提供设计系统的元数据、组件信息等上下文数据。
- 工具(Tools)注册与执行:实现对外部功能的注册、调用与结果返回,支持多种输入输出模式。
- 提示模板(Prompts)定义与渲染:提供可自定义的 Prompt 模板供 LLM 交互使用。
- JSON-RPC 通信:与客户端通过 JSON-RPC 进行请求/响应,标准化数据交互。
- 会话与能力声明:包含服务器端会话管理与能力声明信息。
- 多传输协议支持:基于框架设计,支持 Stdio、SSE、WebSocket 等传输方式。
- 与设计系统生态整合:可结合 Fragments、CLI、MCP 工具链,生成 fragments.json 等元数据文件以驱动 MCP。
- 安装步骤
- 使用 npm/yarn 安装并在本地开发环境中引入该库,结合具体项目将 MCP 服务端接入到应用中。
- 通过 npm/npx 运行示例工具,按照文档将 MCP 服务端接入到 AI 客户端的配置中。
- 服务器配置(示例 JSON,供 MCP 客户端读取) 下面给出一个示例配置,描述了 MCP 服务器的名称、启动命令和参数。请按需替换为实际环境的路径与版本。 { "serverName": "fragments", "command": "npx", "args": ["-y", "@fragments-sdk/mcp@latest"], "notes": "来自仓库的 MCP 集成示例,客户端可通过该配置连接到 MCP 服务器。" }
- 基本使用方法
- 引入并初始化 Fragments 的 MCP 相关工具,注册资源、工具及 Prompts,以便 LLM 客户端在运行时能够查询和调用。
- 通过客户端发起请求,服务器返回资源、工具结果及 Prompts 的渲染数据。
- 若需要扩展,按项目结构新增资源、工具、Prompts,并在 MCP 服务端注册对应的处理逻辑。