基于 Model Context Protocol 的 MCP 服务器实现,用于向大语言模型(LLM)客户端提供图标资源、工具与可自定义的 Prompt 模板等上下文服务。该仓库中的 iconx 包提供一个可运行的 MCP 服务器实现,通过标准输入输出(stdio)传输,与客户端进行 JSON-RPC 通信,注册并执行工具(如搜索图标、生成图标组件等),并支持通过配置管理图标资源与输出。
基于 Model Context Protocol 的 MCP 服务器实现,用于向大语言模型(LLM)客户端提供图标资源、工具与可自定义的 Prompt 模板等上下文服务。该仓库中的 iconx 包提供一个可运行的 MCP 服务器实现,通过标准输入输出(stdio)传输,与客户端进行 JSON-RPC 通信,注册并执行工具(如搜索图标、生成图标组件等),并支持通过配置管理图标资源与输出。