← 返回首页

"语义搜索"标签的搜索结果

找到 126 个结果

Dolphin MCP知识库服务器

连接Dolphin语义代码搜索API,通过MCP协议为LLM客户端提供代码和文档的语义搜索、代码片段获取、仓库信息查询等工具和上下文服务。

Project Cortex

Project Cortex是一个智能代码与文档上下文服务器,通过Model Context Protocol (MCP) 向AI编程助手提供项目代码的语义理解、结构化知识和全文搜索能力。

Lancer MCP (代码上下文协议服务器)

一个自托管的MCP服务器,用于索引Git仓库代码,通过混合搜索(BM25+向量嵌入+图遍历)为AI代理提供智能代码搜索和上下文。

Giant AI MCP代码上下文服务

为LLM提供项目感知能力,实现语义代码搜索、架构分析、代码生成和自动化智能体功能,支持多种LLM客户端。

Milvus RAG MCP服务器

一个基于Model Context Protocol (MCP) 实现的服务器,利用Milvus向量数据库为LLM提供文档存储、语义搜索及检索增强生成(RAG)功能。

语义搜索MCP服务器

一个生产级的模型上下文协议(MCP)服务器,通过高级RAG功能为大型语言模型(LLM)客户端提供零成本的本地知识检索和文档处理服务。

Episodic Memory MCP 服务器

为 LLM 客户端提供语义搜索和对话历史浏览能力,作为 Claude Code 对话的记忆扩展。

ChromaDB 远程 MCP 服务器

一个基于 Model Context Protocol (MCP) 的服务器,为 AI 助手(如 Claude)提供 ChromaDB 向量数据库的远程访问和语义搜索能力。

BuildAutomata AI记忆MCP服务器

为AI代理提供持久化、可搜索、带版本控制和洞察分析的长期记忆系统,通过MCP协议与LLM客户端通信。

Memory Journal MCP 服务器

一个生产级的开发者日志MCP服务器,支持知识图谱、关系可视化、智能搜索及Git/GitHub项目集成。

ENGRAM 智能记忆 MCP 服务器

ENGRAM是一个生产级MCP服务器,为AI代理和LLM应用提供先进的记忆管理,支持短期与长期记忆、语义搜索和智能洞察。

Julie:跨语言代码智能服务器

Julie是一个基于MCP的跨平台代码智能服务器,提供25+语言的LSP级功能,赋能LLM代码理解、搜索、导航及重构。

Claude-Mem

Claude-Mem 是一个为 Claude Code 提供持久化记忆功能的插件,通过 MCP 服务器提供强大的语义搜索工具,帮助用户管理和检索会话上下文及工具使用记录。

Claude Code MCP 服务集合

该仓库提供了一系列基于Model Context Protocol (MCP) 构建的服务器插件,为LLM客户端提供代码分析、API调试、知识库管理和工作流自动化等功能。

Snippets 代码片段智能搜索服务器

一个智能代码片段管理与搜索系统,通过AI分析GitHub仓库,存储代码片段到向量数据库,并通过MCP协议为LLM客户端提供语义搜索工具。

智能检索MCP服务端

一个基于Model Context Protocol (MCP) 构建的RAG(检索增强生成)服务端示例,提供知识库的文档检索与添加功能,通过标准化协议支持LLM客户端进行智能上下文服务。

ContextCache - AI记忆引擎

一个隐私优先、本地优先的AI记忆引擎,通过知识图谱管理文档、提取事实并提供可追溯、可解释、可审计的答案。

Memorizer

一个MCP服务器,为AI代理提供持久化记忆存储、检索、语义搜索和知识图谱构建能力。

LLM知识图谱服务器

为LLM提供持久化记忆和上下文管理服务,支持文档存储、语义检索、分析与集群化,助力LLM构建长期知识。

知识图谱MCP服务器

将知识图谱的核心功能通过Model Context Protocol (MCP) 标准化为LLM可调用的工具,实现智能上下文服务和数据交互。

LupAI Meinsvwissen MCP服务器

LupAI Meinsvwissen MCP服务器提供一个基于MCP协议的上下文服务,通过语义搜索和文本检索工具,为LLM应用提供联邦学习资源和法律文本的访问能力。

FlockParse - 分布式RAG智能平台

FlockParse是一个GPU感知的分布式文档RAG系统,通过MCP协议为AI助手提供高效、本地化的文档处理和问答能力。

CheQQme数据中心MCP服务器

为LLM客户端提供CheQQme数据中心的结构化资源,支持AI语义搜索与自动化。

Tenrec:IDA Pro逆向工程MCP服务器

Tenrec是一个基于MCP协议的IDA Pro逆向工程服务器,为LLM提供IDA数据库的上下文信息和工具,支持多会话和可扩展插件。

VectorOps Know

提供代码智能服务,为LLM提供代码库的上下文理解、搜索和分析能力,支持工具调用。

ck - 语义代码搜索MCP服务器

ck服务器是一款强大的语义代码搜索工具,通过MCP协议为AI客户端提供代码理解、搜索与索引管理功能。

Tree-Sitter MCP 代码分析服务

提供基于Tree-Sitter的快速代码语义搜索、用法追踪、质量和错误分析,以MCP服务器形式为AI工具提供上下文和功能。

Tiger Salesforce MCP 服务器

为LLM提供Salesforce支持案例的语义搜索和摘要获取功能,通过MCP协议与客户端交互。

MARM:AI记忆与上下文协议服务器

一个基于Model Context Protocol (MCP) 构建的智能AI记忆后端,为LLM提供持久化对话上下文、语义搜索和可编程工具。

Tiger Docs MCP 服务器

为LLM提供PostgreSQL和TimescaleDB文档的语义搜索工具及预定义指南,通过MCP协议进行上下文服务。

LEANN

LEANN是一个本地化、低存储的向量数据库,通过MCP协议提供代码语义搜索、文档RAG等AI服务。

lil-rag RAG服务器

基于Go、SQLite和Ollama构建的RAG(检索增强生成)系统,提供文档索引、语义搜索和智能问答功能,并通过Model Context Protocol (MCP) 标准接口与AI助手集成。

MemKB 智能检索内存知识库

基于Rust的MCP服务器,利用语义搜索和外部LLM,为Markdown文档提供AI驱动的问答服务。

MariaDB MCP 服务端

为LLM提供MariaDB数据库和向量存储的上下文服务,支持SQL查询、数据管理及向量语义搜索。

MCP文档智能服务器

一个基于Model Context Protocol (MCP) 的TypeScript服务器,提供本地优先的文档管理、基于嵌入的语义搜索和由Google Gemini AI驱动的高级文档分析功能。

Agents Playbook

一个基于MCP协议的AI工作流编排框架,通过结构化工作流和语义搜索,为LLM提供可定制的开发任务上下文和逐步指导。

OpenSearch MCP 服务端 (Python)

基于 Model Context Protocol (MCP),实现 AI 助手与 OpenSearch 集群交互的后端服务,提供标准化工具调用和上下文管理。

Open Aware

Open Aware通过Model Context Protocol (MCP) 为AI助手提供跨代码库和文档的深度代码智能和上下文检索能力。

MEMG Core 智能记忆服务

为AI智能体提供结构化、可扩展的记忆存储与检索能力,通过MCP协议对外暴露丰富工具集,支持自定义记忆类型和图关系管理。

MCP-MCP:元MCP服务器

这是一个基于MCP协议构建的元服务器,旨在帮助AI助手发现和集成其他MCP服务器,提供一站式工具发现服务。

revect: 个人记忆向量库

revect 是一个自托管的个人记忆和知识库,支持语义搜索,并可通过 MCP 协议与 AI 工具无缝集成。

Codebase Expert

一个MCP服务器,将代码库转换为可搜索知识库,为LLM提供代码理解和搜索能力。

SuperNova 文档 MCP 检索服务

基于 MCP 协议的服务器,通过 RAG 为 LLM 客户端提供 SuperNova 虚拟文档的语义检索和问答能力。

LegalContext

LegalContext是一个开源的Model Context Protocol (MCP) 服务器,为法律专业人士安全地桥接Clio文档管理系统与Claude Desktop AI,实现基于文档的法律问答和语义搜索。

Spryker代码语义搜索MCP服务器

基于MCP协议,为LLM客户端提供Spryker项目代码的语义搜索能力。

基于MCP的邮件代理服务器

一个基于Model Context Protocol,为LLM提供邮件发送、搜索和管理功能的后端服务。

Cloudflare 文档语义搜索MCP服务器

基于Cloudflare Vectorize和AI,为LLM提供Cloudflare文档的语义搜索工具。

PostgMem: 基于MCP的向量记忆服务器

使用PostgreSQL和pgvector为AI应用提供向量记忆存储和语义搜索的MCP服务器。

Archive Agent

开源的语义文件追踪器,集成了OCR和AI搜索,通过MCP协议提供上下文和功能给LLM客户端。

ech0 MCP 编码偏好管理服务器

基于MCP协议,结合ech0平台管理和查询您的编程偏好和代码片段。

YouTube MCP服务器

提供通过MCP协议访问YouTube视频搜索、转录和内容语义搜索能力的AI增强型服务器。

Vectara MCP 服务器

通过MCP协议将LLM连接至Vectara RAG平台,提供搜索与问答能力。

Email Client MCP Server

一个MCP服务器,为LLM应用提供邮件管理功能,包括配置管理、邮件发送、关键词及语义搜索等。

YouTube视频知识库MCP服务器

基于MCP协议的YouTube视频知识库服务器,可提取、检索和管理视频转录本,集成LLM工具实现知识问答。

HubSpot MCP Server

HubSpot MCP Server是一个连接AI助手和HubSpot CRM的桥梁,提供对联系人、公司和互动数据的访问,并具备语义搜索能力。

Recall.js MCP服务器

Recall.js 作为一个轻量级RAG系统,通过MCP协议提供语义搜索工具,为LLM应用提供本地知识库的访问能力。

Rocketnotes MCP Server

Rocketnotes MCP服务器为LLM客户端提供笔记内容的上下文感知搜索和互动能力,集成Rocketnotes笔记应用。

Hermes Search MCP Server

Hermes Search MCP Server 是一个基于 Model Context Protocol 的后端服务,旨在为 LLM 应用提供强大的数据搜索和索引能力,通过集成 Azure Cognitive Search,实现对结构化和非结构化数据的全文和语义搜索。

Anytype MCP服务器

Anytype MCP服务器为LLM提供语义搜索和RAG能力,使其可以访问和利用您的Anytype文档知识库。

PyTorch文档搜索MCP服务器

一个基于MCP协议实现的PyTorch文档语义搜索工具,允许用户通过Claude Code等MCP客户端搜索PyTorch API、代码示例和文档。

Synapstor

Synapstor是一个模块化的库,用于语义存储和检索信息,通过向量嵌入和Qdrant数据库为LLM应用提供上下文服务。

Airweave

Airweave是一个多应用数据集成平台,可将各类应用转化为AI Agent可用的语义化MCP服务器,提供统一数据访问和检索能力。

YouTube Playlist Transcript Server

一个MCP服务器,用于检索和访问YouTube播放列表的视频转录文本,为LLM应用提供视频内容上下文。

Fuel文档搜索MCP服务器

为Fuel和Sway开发者提供文档语义搜索功能的MCP服务器,集成到IDE以提升开发效率。

MCP文档搜索服务器

MCPDocSearch是一个MCP服务器,它通过爬取网站文档并建立语义索引,为LLM客户端提供文档检索能力,支持Cursor等MCP客户端集成。

mcp-mem0: AI Agent长期记忆服务器

基于MCP协议的长期记忆服务器,为AI Agent提供持久化存储、检索和语义搜索能力。

GitHub Star 搜索服务器

一个基于Cloudflare的MCP服务器,允许用户通过自然语言搜索和查询其GitHub Star仓库。

Semantic Tool

Semantic Tool是一个基于语义相似性的微服务,用于动态发现和调用外部工具,并支持管理MCP服务器。

Redis Agent Memory Server

基于Redis的Agent Memory Server,通过REST和MCP接口为AI Agent提供短期和长期记忆管理,支持语义搜索、自动摘要和灵活的API。

Writer Context Tool for Claude

连接Claude与Substack/Medium写作平台的MCP服务器,提供个人写作内容检索和资源访问功能。

Space Frontiers MCP Server

为语言模型提供访问 Space Frontiers 数据的 MCP 服务器,支持关键词和语义搜索工具。

Obsidian MCP Server

Obsidian MCP Server 插件在本地运行一个MCP服务器,通过标准接口连接AI助手等外部应用,实现对Obsidian Vault的访问和操作。

Morphik MCP服务器

Morphik MCP服务器是一个基于Model Context Protocol的应用后端,旨在连接Claude等MCP客户端与Morphik数据库,提供文档知识库的访问和管理能力。

HexDocs MCP服务器

HexDocs MCP服务器是一个为AI应用设计的后端服务,提供Elixir Hex包文档的语义搜索功能,并通过MCP协议与客户端通信。

Beating Heart Nostr RAG服务器

基于Nostr协议文档的RAG系统,通过MCP服务器为LLM智能体提供Nostr规范的语义搜索能力。

Tacitbase MCP Server

Tacitbase MCP服务器通过集成Typesense和Tacitbase,为LLM应用提供强大的候选人数据搜索能力,支持关键词、向量和语义搜索等多种方式。

Meilisearch混合搜索MCP服务器

基于MCP协议,提供通过Meilisearch进行混合搜索(关键词+语义)文档的功能,为LLM应用提供文档检索能力。

MCP Qdrant 代码片段服务器

基于MCP协议和Qdrant数据库构建的代码片段管理服务器,支持存储、检索和语义搜索代码片段。

Rust文档MCP服务器

rust-docs-mcp-server是一个MCP服务器,为LLM提供Rust crate的最新文档查询工具,提升代码助手对Rust生态的理解和应用能力。

Mem0代码偏好MCP服务器

基于Mem0的MCP服务器,用于管理和检索代码偏好设置,支持Cursor等LLM客户端通过SSE协议连接,提供代码片段存储、检索和语义搜索功能。

PostgreSQL Memory MCP Tools

基于PostgreSQL的MCP服务器,提供向量搜索的持久化记忆存储,用于AI应用,特别是Claude集成。

知识库MCP服务器

提供基于FAISS索引的本地知识库语义搜索能力,通过MCP协议与LLM客户端交互。

Notes DB

基于向量的个人笔记工具,通过 Claude Desktop 作为 MCP 服务器,提供语义搜索、标签管理和 GitHub 同步功能。

HR智能助手服务器

提供结构化HR数据访问和检索能力的MCP服务器,支持AI助手集成。

Coding Wizard MCP Server

基于MCP协议的智能编码助手服务器,提供代码片段存储、检索、代码分析和补全等功能,支持Qdrant向量数据库和多种工具扩展。

Svelte 5 文档搜索 MCP 服务器

基于 MCP 协议,提供 Svelte 5 文档的语义搜索功能,使 LLM 能够准确查询 Svelte 5 相关信息。

WindTools代码助手MCP服务器

WindTools MCP服务器是基于MCP协议的代码助手,提供代码库索引、语义搜索等功能,帮助LLM理解和利用代码上下文。

Qdrant MCP Server

基于MCP协议的Qdrant向量数据库服务器,为AI agent提供语义搜索和知识管理能力。

知识库嵌入存储服务器

一个基于MCP协议的服务器,通过AI Embeddings API实现内容存储和语义搜索功能,为LLM应用提供知识库服务。

Qdrant向量数据库MCP服务器

基于MCP协议,提供对Qdrant向量数据库的上下文信息管理和检索能力。

Sanity MCP Server

Sanity MCP Server为LLM应用提供桥梁,通过MCP协议安全访问和操作Sanity.io内容及功能。

kb mcp server

基于txtai的kb-mcp-server项目实现了一个模型上下文协议(MCP)服务器,旨在通过标准化的JSON-RPC接口,为LLM客户端提供语义搜索、知识图谱查询和AI文本处理等上下文增强服务。

ragaman

Ragaman是一个基于Model Context Protocol (MCP) 的RAG系统,用于管理个人笔记,并提供基于语义搜索的知识检索功能。

anchoring

Anchoring仓库实现了一个MCP服务器,为Cursor和Claude等LLM客户端提供版本绑定的技术文档代码片段检索和组件列表功能。

mcp

mcp仓库提供了一系列基于Model Context Protocol (MCP) 的服务器实现,包括语义搜索等功能,旨在为LLM应用提供上下文信息和工具能力。

chroma mcp

Chroma MCP Server是基于Model Context Protocol的服务器实现,它利用Chroma数据库为LLM应用提供向量检索、文档管理等上下文数据服务,支持多种客户端类型和灵活配置。

NetContextServer

NetContextServer通过Model Context Protocol (MCP) 协议,为AI助手提供访问.NET代码库上下文的能力,支持代码搜索、项目分析和文件管理等功能。

rag retriever

RAG Retriever是一个Python应用,作为MCP服务器,为AI助手提供网页检索、向量检索和网页抓取功能,增强代码生成和上下文感知能力。

needle mcp

JANHMS_needle-mcp 是一个 MCP 服务器,它利用 Needle 平台的功能来管理文档集合并执行语义搜索,为 LLM 客户端提供文档知识库访问能力。

cognee mcp server

topoteretes_cognee-mcp-server 是一个基于 MCP 协议的服务器,集成了 cognee AI 记忆引擎,提供构建和搜索知识图谱的工具,用于增强 LLM 的上下文理解能力。

mcp obsidian index

Obsidian Index MCP服务器为LLM客户端提供Obsidian Vault的语义搜索功能,并将最近修改的笔记作为资源暴露。

mcp pinecone

Pinecone MCP Server是一个连接Claude Desktop和Pinecone向量数据库的桥梁,支持语义搜索和文档管理功能。

mcp ragdocs

基于MCP协议的RAG文档服务器,提供文档检索、管理和URL提取等工具,增强LLM的文档上下文能力。

mcp apple notes

该项目是一个MCP服务器,通过语义搜索和RAG技术,使AI助手能够访问和检索用户的Apple Notes内容,实现本地知识库的集成。

needle mcp server

JANHMS_needle-mcp-server 是一个基于 MCP 协议的服务器,它利用 Needle API 为 Claude 等 LLM 应用提供文档集合管理和语义搜索能力。

mcp rememberizer vectordb

此MCP服务器为LLM应用提供与Rememberizer向量数据库的接口,支持文档资源管理、语义搜索、信息检索等功能。

mcp

ts_mcp 是一个基于 TypeScript 开发的 MCP 服务器,专注于提供研究服务,允许用户通过工具进行信息检索,并将研究结果作为资源进行管理和访问。

probe

probe-mcp仓库为Probe代码搜索工具提供了Model Context Protocol (MCP) 服务器端实现,使得AI客户端能够通过MCP协议调用Probe进行代码库的本地语义搜索。

mcp elastic memory

mcp-elastic-memory仓库是一个基于Elasticsearch构建的可扩展知识图谱MCP服务器实现,为LLM应用提供结构化知识存储、检索和管理能力。

Elasticsearch

该项目是一个基于Python FastMCP框架实现的MCP服务器,旨在为LLM应用提供访问Elasticsearch数据和搜索Elasticsearch文档及博客的能力。

Jina AI

Jina AI MCP Server为LLM应用提供语义搜索、图像搜索和跨模态搜索工具,通过Model Context Protocol (MCP) 协议与客户端通信,集成Jina AI的神经搜索能力。

PDF Search

Zed PDF Search Context Server: 通过MCP协议为Zed编辑器提供PDF文档的语义搜索能力,增强AI助手上下文。

txtai

txtai-assistant-mcp 是一个基于 txtai 构建的 MCP 服务器,提供语义搜索和记忆管理功能,增强 Claude 和 Cline 等 AI 助手的能力。

Knowledge Base Retrieval

该MCP服务器提供知识库检索工具,允许用户通过语义搜索从指定的知识库中检索相关文档片段。

Obsidian Index

Obsidian Index MCP server为LLM客户端提供Obsidian vault的语义搜索和笔记资源访问功能。

Chat Analysis

该MCP服务器通过语义分析聊天记录,利用向量嵌入和知识图谱技术,为LLM应用提供强大的会话分析能力。

ChromaDB

Chroma MCP Server 是一个基于 Model Context Protocol 的服务器实现,通过 Chroma 向量数据库提供语义文档搜索和管理功能,为 LLM 应用提供上下文服务。

Memory Service

该仓库实现了一个基于MCP协议的语义记忆服务,为 Claude Desktop 等 LLM 应用提供持久化存储和语义检索能力,支持上下文管理和知识库构建。

Apple Notes

MCP Apple Notes 是一个本地运行的MCP服务器,允许AI助手(如Claude)通过语义搜索和RAG访问和利用用户的Apple Notes数据。

QDrant RagDocs

QDrant RagDocs 是一个 MCP 服务器,它利用 Qdrant 向量数据库和 Ollama/OpenAI 嵌入技术,为 LLM 应用提供 RAG 文档检索与管理能力。

Memory Server with Qdrant Persistence

该项目是一个基于MCP协议的内存服务器,利用Qdrant向量数据库实现知识图谱的存储和语义搜索功能,为LLM应用提供上下文记忆服务。

Scalable OpenAPI Endpoint Discovery and API Request Tool

此MCP服务器通过语义搜索OpenAPI文档,为LLM提供API接口信息和请求能力,支持动态发现和调用任意符合OpenAPI规范的API。

Files Vector Store

Files Vector Store 是一个 MCP 服务器,它能够监控指定目录的文件,并对其内容进行语义索引,从而为 LLM 提供本地文件的语义搜索能力。

Needle MCP

Needle MCP服务器是一个基于Model Context Protocol的后端实现,它利用Needle AI的服务为LLM客户端提供文档管理、存储和语义搜索功能。

Pinecone MCP Server

Pinecone MCP Server为 Claude Desktop 等 MCP 客户端提供基于 Pinecone 向量数据库的知识库访问和管理功能。

RAG Documentation

RAG Documentation MCP Server是一个基于向量搜索的MCP服务器,旨在为LLM应用提供文档检索和上下文增强工具,支持多种文档源和语义搜索。