← 返回首页

"知识检索"标签的搜索结果

找到 39 个结果

AI助手平台 - Polychat

一个完整的AI平台,通过集成的AI代理支持MCP协议,提供多模型聊天、工具调用、知识检索和多应用服务。

LupAI Meinsvwissen MCP服务器

LupAI Meinsvwissen MCP服务器提供一个基于MCP协议的上下文服务,通过语义搜索和文本检索工具,为LLM应用提供联邦学习资源和法律文本的访问能力。

Skynet-Agent 记忆库 MCP 服务器

Skynet-Agent 项目中负责管理意识记忆的 MCP 服务器组件,提供记忆的保存、搜索等工具能力。

MCP Search Hub

智能多源搜索聚合服务器,基于FastMCP构建,为LLM提供统一搜索能力。

Qdrant 搜索 MCP 服务器

一个基于MCP协议的服务器,提供通过Qdrant向量数据库进行搜索的能力。

MCP文档搜索工具服务器

通过MCP协议为LLM提供搜索和访问LangChain、OpenAI等库文档的能力。

KnowFlow MCP知识检索工具

通过MCP协议为LLM提供外部知识检索能力

Cloudflare 文档语义搜索MCP服务器

基于Cloudflare Vectorize和AI,为LLM提供Cloudflare文档的语义搜索工具。

MCP文档搜索工具服务器示例

一个基于Model Context Protocol (MCP) 的服务器示例,提供搜索特定在线文档并提取内容的工具。

SearchUnify上下文服务器

连接Claude桌面与SearchUnify,赋能AI获取SearchUnify搜索结果作为上下文。

Sentinel Core Agent

一个基于MCP协议的服务器实现,为大语言模型提供文件系统操作、网络信息获取和知识检索等工具。

Lindorm MCP 服务器

基于MCP协议,为阿里云Lindorm数据库提供上下文信息和功能访问的后端服务器。

Gemini Router - 智能工具路由平台

基于 Gemini 构建的 MCP 服务器,通过智能路由将用户请求分发至不同的 AI 服务模块(如聊天、搜索、RAG等),实现复杂任务的协同处理。

Open Library 图书搜索 MCP 服务器

一个 MCP 服务器,允许 AI 助手通过书名在 Open Library 中搜索图书信息。

Wikipedia MCP Server

一个基于Model Context Protocol的服务器,允许LLM客户端通过工具搜索和检索维基百科文章内容。

MediaWiki MCP Server

一个MCP服务器,允许LLM客户端通过Wikipedia API检索和搜索维基百科内容,作为LLM的上下文信息来源。

Wandering RAG

Wandering RAG是一个个人知识库RAG工具,它将本地Markdown文档、Notion笔记等数据存入向量数据库,并以MCP服务器形式对外提供知识检索和存储能力,为LLM应用提供个人化上下文服务。

LlamaCloud MCP服务器

基于LlamaCloud的本地MCP服务器,通过RAG工具为LLM客户端(如Claude Desktop)提供最新的私有信息访问能力。

MCP实时Agent基础设施

基于MCP协议构建,为AI客户端提供实时工具执行、结构化知识检索和动态交互能力。

RAG Kit MCP Server

RAG Kit MCP Server是一个基于Model Context Protocol的服务器,专注于为LLM应用提供检索增强生成(RAG)能力,通过工具化接口访问向量数据库,实现高效的知识检索和上下文管理。

Docbase MCP Server

Docbase MCP Server 是一个基于 Model Context Protocol 的服务器实现,它将 Docbase 知识库的功能以工具的形式提供给 LLM 应用,实现知识库内容的检索、获取、创建和更新等操作。

ResearchMCP: Perplexity AI 互联网研究服务

ResearchMCP 是一个 MCP 服务器,通过集成 Perplexity AI 提供互联网研究能力,为 LLM 客户端提供“research”工具以访问最新的在线信息。

文档检索MCP服务器

基于FastMCP构建,为LLM提供多框架文档的智能搜索工具,支持LangChain, Next.js等。

MCP Agent示例服务器

一个演示 Model Context Protocol (MCP) 的示例服务器,为 Agent 提供网页搜索、维基百科查询和时间查询等工具。

Qdrant MCP Server

基于MCP协议的Qdrant向量数据库服务器,为AI agent提供语义搜索和知识管理能力。

OpenAI 网页搜索 MCP 服务器

一个基于 Model Context Protocol 的服务器,为 LLM 提供通过 OpenAI API 进行网页搜索的能力,支持多种搜索模式和参数配置。

modelcontextprotocol

此仓库提供了一个基于 Model Context Protocol (MCP) 的服务器实现,通过集成 Perplexity API,为 Claude 等大型语言模型客户端提供实时的网络搜索能力,作为一个可调用的工具。

mcp docs rag

一个基于Model Context Protocol的MCP服务器,实现了本地文档的RAG (检索增强生成) 功能,支持用户查询本地Git仓库和文本文件。

wikimedia

wikimedia MCP服务器提供通过自然语言查询访问维基媒体API的功能,包括搜索内容、获取页面、查询多语言版本和特色内容等。

rag retriever

RAG Retriever是一个Python应用,作为MCP服务器,为AI助手提供网页检索、向量检索和网页抓取功能,增强代码生成和上下文感知能力。

mcp webresearch

使用户能够通过Claude等LLM客户端进行网页搜索、内容提取和屏幕截图的MCP服务器,实现实时网络信息接入。

mcp rememberizer vectordb

此MCP服务器为LLM应用提供与Rememberizer向量数据库的接口,支持文档资源管理、语义搜索、信息检索等功能。

Perplexity

使用Perplexity API为LLM客户端提供互联网研究能力的MCP服务器,支持 Claude 等客户端进行联网搜索并引用来源。

Perplexity

此项目是一个MCP服务器工具,通过Perplexity AI API为Claude等LLM客户端提供联网搜索和信息检索能力。

Tavily Search

使用Tavily搜索API的MCP服务器,为LLM提供高质量网络搜索能力。

Tavily Search

基于MCP协议,Tavily MCP Server 提供了网页搜索和内容提取工具,为LLM应用提供实时网络信息访问能力。

Tavily Search

Tavily Search MCP Server 是一个为LLM应用设计的后端服务,它通过集成 Tavily Search API 提供强大的网页搜索功能,使LLM能够访问和利用最新的网络信息。

Perplexity AI Server

Perplexity AI MCP Server是一个基于Model Context Protocol的服务器,它将Perplexity AI的强大搜索和聊天功能集成为可供LLM客户端调用的工具,方便用户在MCP生态系统中使用Perplexity AI的服务。

Qdrant Server

mcp-server-qdrant 是一个基于 Model Context Protocol (MCP) 的服务器实现,它允许大型语言模型(LLM)通过 Qdrant 向量搜索引擎存储和检索信息,作为其长期记忆或外部知识库。