基于Cloudflare Vectorize和AI,为LLM提供Cloudflare文档的语义搜索工具。
一个MCP服务器,允许LLM客户端通过Wikipedia API检索和搜索维基百科内容,作为LLM的上下文信息来源。
基于LlamaCloud的本地MCP服务器,通过RAG工具为LLM客户端(如Claude Desktop)提供最新的私有信息访问能力。
ResearchMCP 是一个 MCP 服务器,通过集成 Perplexity AI 提供互联网研究能力,为 LLM 客户端提供“research”工具以访问最新的在线信息。
此仓库提供了一个基于 Model Context Protocol (MCP) 的服务器实现,通过集成 Perplexity API,为 Claude 等大型语言模型客户端提供实时的网络搜索能力,作为一个可调用的工具。
一个基于Model Context Protocol的MCP服务器,实现了本地文档的RAG (检索增强生成) 功能,支持用户查询本地Git仓库和文本文件。
使用Perplexity API为LLM客户端提供互联网研究能力的MCP服务器,支持 Claude 等客户端进行联网搜索并引用来源。
此项目是一个MCP服务器工具,通过Perplexity AI API为Claude等LLM客户端提供联网搜索和信息检索能力。
基于MCP协议,Tavily MCP Server 提供了网页搜索和内容提取工具,为LLM应用提供实时网络信息访问能力。
Tavily Search MCP Server 是一个为LLM应用设计的后端服务,它通过集成 Tavily Search API 提供强大的网页搜索功能,使LLM能够访问和利用最新的网络信息。
Perplexity AI MCP Server是一个基于Model Context Protocol的服务器,它将Perplexity AI的强大搜索和聊天功能集成为可供LLM客户端调用的工具,方便用户在MCP生态系统中使用Perplexity AI的服务。