这是一个基于Model Context Protocol (MCP) 的服务器,旨在为大型语言模型(LLM)提供PrimeNG前端组件的详细文档、智能搜索、代码生成及实用指南。
通过 Model Context Protocol (MCP) 使 AI 助手能够与 Dev Proxy 功能交互。
为 Starwind UI 组件库提供工具的 MCP 服务器,增强 AI 助手在 Starwind UI 开发中的能力。
Peacock MCP Server 是一个为 VS Code Peacock 插件提供文档查询功能的 MCP 服务器,演示了如何构建和使用 MCP 服务器与 LLM 客户端交互,扩展编辑器功能。
一个 MCP 服务器,用于向 LLM 提供 Ant Design 组件的文档信息,支持组件查询、文档获取、属性查看和示例代码检索等功能。
一个基于Model Context Protocol的MCP服务器,实现了本地文档的RAG (检索增强生成) 功能,支持用户查询本地Git仓库和文本文件。
Research Assistant MCP服务器集成了Perplexity API,提供搜索、文档查询、API查找和代码过时性检查等工具,辅助用户进行研究和开发工作。
Researcher-MCP Server 是一款基于 Model Context Protocol 的应用后端,通过集成 Perplexity AI 的 Sonar Pro API,为 LLM 客户端提供强大的研究辅助和信息检索工具,包括通用搜索、文档查询、API 发现和代码过时性检查等功能。
LlamaCloud MCP Server是一个连接到LlamaCloud托管索引的MCP服务器,提供知识库查询工具,为LLM应用提供上下文信息。