← 返回首页

"向量检索"标签的搜索结果

找到 67 个结果

Developer Guides MCP Server

基于 Model Context Protocol (MCP) 架构的后端服务器,提供开发者指南知识库的资源管理、工具注册和提示模板渲染,采用 JSON-RPC 通过 MCP 客户端进行交互,底层存储使用 Cloudflare 的 D1、R2 和向量数据库 Vectorize,部署在 Cloudflare Workers 上。

Oubli MCP 服务器:Claude Code 的 fractal 记忆系统后端

基于 Model Context Protocol (MCP) 的后端服务器,为 Claude Code 提供记忆资源管理、工具执行与提示渲染的标准化 JSON-RPC 服务,支持记忆的托管、检索、合成及核心记忆的持久化存储,并通过 LanceDB 提供可扩展的向量化语义检索能力。

Nautobot MCP 服务端

基于 Model Context Protocol 的后端服务,提供 Nautobot API 的统一上下文访问、动态工具执行、以及知识库检索等能力,并通过 JSON-RPC/HTTP 等传输协议与客户端进行交互,支持多环境接入与向量化检索。

Flowise MCP Server

基于 Model Context Protocol (MCP) 的服务端实现,提供 Flowise 实例的资源、工具、提示模板等管理能力,并通过 MCP 客户端进行标准化的 JSON-RPC 交互,支持向量检索、文档存储、会话管理等后端上下文服务。

Feonix Insight MCP KB Server

基于模型上下文协议(MCP)的知识库后端服务器实现,提供资源管理、工具执行以及提示模板等功能,并通过 JSON-RPC 与 LLM 客户端进行标准化交互,支持网络访问与安全认证。该仓库中存在实现 MCP 的服务器端代码(如 mcp_kb_server.py、feonix_kb_server.py 等),实现了 Initialize、Tools、Resources 等 MCP 端点及健康检查等功能。

Memory MCP Triple System

基于 Model Context Protocol 的 MCP 服务器实现,提供多层内存管理、资源与工具治理,以及推理提示渲染,使用 JSON-RPC 的 MCP 标准通过标准输入输出(Stdio)等协议与 MCP 客户端通信,为 LLM 应用提供安全、可扩展的上下文服务。

Project Indexer MCP Server

基于 Model Context Protocol (MCP) 的服务器端实现,用于对代码项目进行上下文分析、向量化检索和外部工具调用的统一管理。通过 JSON-RPC 风格的 MCP 客户端通信,服务器端负责会话管理、能力声明,以及资源(向量/元数据)的托管、工具执行和 Prompt 模板的渲染。实现了完整的 MCP 服务端逻辑(8 个工具),并使用 ChromaDB 进行向量存储、OpenAI 模型进行代码分析与嵌入生成,提供本地 STDIO 传输的运行能力,同时包含一个可选的 Web 管理端供查看和管理索引数据。该实现可直接作为 MCP 服务器使用或作为开发参考与扩展。

Claude-Mem MCP Server

基于 Model Context Protocol (MCP) 的后端实现,提供资源管理、工具注册/执行、Prompt 定义与渲染等能力,并通过 JSON-RPC 与 LLM 客户端进行通信,支持会话管理与多传输协议,作为 LLM 应用的上下文服务后端。

SAME MCP 服务端

基于模型上下文协议(MCP)的后端服务器实现,提供对知识 vault 的资源管理、工具调用与提示模板渲染等能力,通过 JSON-RPC 方式与 LLM 客户端交互,支持标准的文本/向量检索、注释日志、手动与自动化操作等场景,并以标准的 stdio 传输启动 MCP 服务,方便与 Claude Code 等工具链对接。

mcp-local-rag

本地 MCP 服务器实现,用于面向大语言模型的RAG场景,提供文档资源管理、外部工具执行与基于向量检索的上下文服务,并可通过 OCR 将 PDFs 转换为可检索的文本内容。

Modular RAG MCP Server

基于 Model Context Protocol (MCP) 的可插拔企业级后端服务器框架,向 LLM 客户端提供资源管理、工具执行与 Prompt 渲染等上下文能力,并通过 JSON-RPC 与客户端通信,支持结构化日志、监控与多种传输协议的扩展能力。仓库实现了 MCP 相关协议适配、工具注册与执行、资源/向量检索以及多模块协作的核心组件,形成可扩展的对话式知识背景服务。

Nosia MCP 服务器端

Nosia 的 Model Context Protocol(MCP)后端实现,负责向大语言模型客户端提供资源、工具与提示模板等上下文能力,并通过 MCP 协议规范化地对接外部服务与数据源,支持多租户场景、会话状态管理以及多种传输方式(如 STDIO、SSE、WebSocket),以实现对外部能力的扩展与整合。该项目不仅具备服务端管理能力,还通过服务器端的工具、提示和资源管理,促进 LLM 与外部系统的无缝交互。

MemoV MCP Server

基于 Model Context Protocol (MCP) 的服务器实现,内部集成 MemoV 的 AI 助手能力。通过 JSON-RPC 风格的 MCP 通信,提供资源管理、工具注册与执行、Prompt/模板渲染等核心能力,支持通过 stdio 和 HTTP 两种传输模式与 LLM 客户端对接,具备会话管理、能力声明以及对向量数据库的可选集成(RAG 模式)。

Octobrain MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供内存资源管理、工具执行以及提示模板渲染等能力,通过 JSON-RPC 在标准输入输出(STDIO)与 LLM 客户端进行通信,支持多种内部传输与会话管理,用于向 LLM 客户端提供可访问的上下文信息与功能。

MAMA Memory-Augmented MCP Server

基于 Model Context Protocol 的后端服务器,提供资源、工具与提示模板的托管与管理,并通过 JSON-RPC 与 LLM 客户端通信,支持会话管理、跨传输协议接入,具备嵌入向量、图谱化决策存储等能力,适用于 Claude Code/Desktop/OpenClaw 等环境的上下文服务与功能扩展。

MemFlow MCP 服务器

基于 MemFlow 的 MCP 服务器实现,向大型语言模型客户端提供 Obsidian Vault 的上下文、资源访问、工具执行与可定制的提示模板等能力;通过 JSON-RPC/HTTP 及标准输入输出等多种传输方式与客户端进行交互,并支持本地化、隐私优先的上下文服务。

rust-code-mcp

基于 Model Context Protocol (MCP) 的后端服务器实现,面向 LLM 客户端提供混合代码检索、增量索引、向量嵌入存储及相关分析工具等能力,支持资源、工具、提示模板等的标准化上下文服务与 JSON-RPC 通信。该仓库包含服务器端实现与完整的服务器逻辑,非仅客户端示例。

Stacklok Toolhive MCP Server

基于 MCP(Model Context Protocol)协议的后端服务,提供文档检索、嵌入向量存储访问,以及工具调用接口,供大语言模型客户端通过统一的 JSON-RPC 方式获取上下文信息与外部功能。该实现包含网页/GitHub 文档源的同步、解析、分块、本地嵌入、向量检索以及查询工具(如 query_docs、get_chunk)等核心能力,具备运行的服务器代码和完整的工作流。

OpenCode Spec Kit MCP 服务器框架

基于 Model Context Protocol (MCP) 的服务器实现框架,提供资源管理、工具注册与执行、Prompt 模板渲染,以及多传输协议支持,面向大模型客户端提供标准化的上下文与功能服务。

RAG MCP Server for Grounding

基于 Model Context Protocol 的 MCP 服务器实现,暴露 Grounding RAG 管线的检索、嵌入与上下文扩展等工具给大语言模型客户端,支持标准 MCP 请求/响应、StdIO 与 HTTP 传输,便于与 Claude Code、Amp 等对话代理协作。

Turbopuffer MCP 服务器(TypeScript 实现)

基于 Model Context Protocol (MCP) 的后端服务器实现,提供工具注册、资源管理、提示模板等能力,并通过 JSON-RPC 与客户端通信,支持 STDIO 与 HTTP 传输,以供 LLM 客户端查询、调用工具和获取上下文信息。

ELF-MCP 服务器实现

基于 ELF 的 MCP 服务器实现,提供对大型语言模型(LLM)客户端的资源、工具调用与提示模板的上下文服务。通过 JSON-RPC 风格的 MCP 协议,将对资源和工具的访问请求转发到 ELF HTTP API,支持多种传输和会话模式,易于与 Claude 等 MCP 客户端对接。

Bluera Knowledge MCP 服务器

基于 Model Context Protocol 的 MCP 服务器,为本地知识库的 AI 客户端提供资源管理、工具执行与 Prompt 模板渲染等能力,并通过 JSON-RPC 与客户端进行通信。

mdemg MCP 服务端

基于 Model Context Protocol (MCP) 的服务器实现,为 LLM 客户端提供统一的上下文服务,核心功能包括托管与管理 Resources(资源)、注册和执行 Tools(工具),以及通过 Cursor 等传输途径与客户端进行 JSON-RPC 通信,便于将内存、检索、推理等能力暴露给 AI 编码代理。当前仓库中实现了一个可运行的 MCP 服务器端,具备工具注册、服务暴露和标准传输接口的完整能力。

FreeAct MCP 服务器实现

基于 Model Context Protocol 的 MCP 服务器实现,提供 JSON-RPC 风格的资源管理、工具注册与执行、以及 Prompt 渲染,支持基于 BM25/向量的工具搜索、审批流控制和多种传输模式,面向为 LLM 客户端提供安全、可扩展的上下文服务。

Git-AI MCP 服务器实现

基于 Model Context Protocol (MCP) 的本地化后端,作为 MCP 服务器提供上下文资源、工具执行与提示模板管理等能力。通过 JSON-RPC 与 AI 客户端通信,支持多种传输方式(如 Stdio、HTTP、SSE/WebSocket),实现对代码语义索引、工具调用和提示渲染的标准化服务。

MCP Vector Search 服务器端

基于 Model Context Protocol (MCP) 的后端服务实现,作为 MCP 客户端的服务器端,托管与管理资源、注册与执行工具、定义与渲染 Prompt 模板,并通过 JSON-RPC 与 LLM 客户端通信,提供会话管理、能力声明及多传输协议支持的上下文服务框架。该仓库实现了 MCP 服务器端的核心功能,并与向量检索后端(嵌入、数据库等)进行整合。

XiYan MCP 服务器(xiyan_mcp_server)

基于 XiYanSQL 的 MCP 服务器实现,向 LLM 客户端以标准 JSON-RPC 提供数据库资源、工具调用和 Prompts 渲染等能力,支持 GreptimeDB、MySQL、PostgreSQL、SQLite 等多数据源,以及本地模型与向量检索集成,具备会话管理、能力声明和多传输协议支持。

AILSS MCP 服务器

基于 Model Context Protocol(MCP)的服务器实现,为 Obsidian 知识库提供资源、工具、提示模板等统一访问接口,通过 JSON-RPC 与客户端通信,支持 STDIO 与本地 HTTP 传输,并与本地向量检索索引数据库协同工作。

workspace-qdrant-mcp

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 4 种 MCP 工具(search、retrieve、memory、store)的暴露与管理,并通过 JSON-RPC 与 LLM 客户端交互;同时集成 Rust 守护进程 memexd、Qdrant 向量数据库及 SQLite 队列,支持会话管理、心跳机制与降级处理。

Claude Copilot MCP 服务器集合

基于 Model Context Protocol (MCP) 的后端服务器集合,提供内存管理、语义检索、知识扩展与技能加载等能力,面向 Claude Copilot 等 LLM 客户端,通过标准化的 JSON-RPC 交互向客户端提供资源、工具、提示等上下文与功能服务。

AIMED ConPort MCP 后端服务器

基于 ConPort MCP 的完整后端实现,提供模型上下文(Resources)、工具(Tools)、提示模板(Prompts)等标准 MCP 功能,并集成多工作区隔离、向量嵌入检索和知识图谱可视化,面向向大语言模型的上下文服务与外部功能调用。Subscribe to JSON-RPC over HTTP,支持会话管理与多传输方案。此仓库包含服务器端实现代码、数据库迁移、向量存储以及与 UI/dashboard 的整合。

Stacks Builder MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供 Clarity 相关上下文资源、工具调用与代码生成等能力,并通过 MCP 协议与客户端进行标准化交互,支持通过标准传输(如 STDIO)与多种后端服务集成。

MemWyre MCP 服务器端实现

MemWyre 的 MCP 服务器端实现,基于 Model Context Protocol 架构,为 LLM 客户端提供标准化的资源、工具与提示模板,并通过 JSON-RPC 风格接口与客户端通信,支持会话管理、能力声明及多传输通道的扩展能力。

OASM MCP Server

基于 Model Context Protocol (MCP) 的后端服务,用于向大模型客户端以标准化方式提供上下文、资源、工具和提示模板,并通过 gRPC/HTTPS 等协议实现对外通信与会话管理。该实现涵盖资源与工具的托管与访问、Prompts 的定义渲染、以及对多服务器的注册与健康状态管理。实现面向可扩展的上下文服务框架,便于在 LLM 场景中集成外部能力。

OSINT MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器,通过 JSON-RPC 提供资源、工具与提示模板给 LLM 客户端,并以标准化的方式与 OSINT 平台 API 对接,支持通过 Stdio 传输进行通信与会话管理。

OpenSaas Stack MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具执行与提示模板的注册与渲染能力,并通过 JSON-RPC 与客户端进行交互,支持会话管理、能力声明以及多传输协议接入,旨在为 LLM 客户端提供安全、可扩展的上下文服务。

MarkdownSpecs MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,提供对本地 Markdown 规格文档的资源管理、工具调用以及基于向量检索的语义检索能力,便于将文档内容以标准化方式提供给大语言模型客户端。实现了资源读取、目录查询、全文搜索、按标签筛选、以及语义搜索等核心功能。

Finnie AI MCP - 多工具后端服务集合

基于 Model Context Protocol (MCP) 的一组后端服务器,提供资源、工具与 prompts 的标准化上下文与功能,面向 LLM 客户端通过 JSON-RPC/SSE 等传输协议进行资源读取、工具调用、以及提示模板渲染等能力,支持多种传输通道与缓存优化,构建可扩展的金融上下文服务框架。

Memory Library MCP Server

基于 Memory Library 的 MCP 服务器实现,为大语言模型客户端提供统一的上下文、工具、资源和提示,支持通过 JSON-RPC 进行交互,并可扩展的向量检索与嵌入管理能力。

Codesearch MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现。该服务器托管并管理资源、注册并执行工具、定义并渲染 prompts,通过 MCP 协议与客户端进行 JSON-RPC 通信,支持将多代理代码搜索能力整合为一个可扩展的后端服务(当前实现以标准输入传输(stdio)为主,未来可扩展到 SSE/WebSocket 等传输方式)。

claudemem MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,用于向 Claude Code 客户端以标准化方式提供资源管理、工具注册与执行、以及提示模板渲染等功能,支持通过 JSON-RPC 与客户端通信,并提供本地/云模型的嵌入索引、检索与分析能力。该仓库实现了完整的 MCP 服务器端逻辑与相关工具集成,而不仅仅是客户端示例。

Enfinyte MCP 服务端

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源、工具与 Prompt 的注册、执行与渲染,并通过 JSON-RPC/多传输协议(如 HTTP/SSE/WebSocket)与 LLM 客户端进行安全、可扩展的上下文服务交互。

PocketRAG MCP集成服务器

基于 Model Context Protocol (MCP) 的本地化后端,提供资源管理、工具注册与执行,以及通过标准化的 MCP JSON-RPC 流程与 Claude Desktop 等 LLM 客户端通信的能力,用于在本地进行文档检索与上下文提供。该实现包含一个以Stdio为传输的 MCP 服务端,及一组用于知识库检索、统计与文档列举的工具。

Context8 MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,用于向大型语言模型(LLM)客户端暴露私有代码资源、可执行工具和可渲染的 Prompt 模板等上下文服务,并通过 JSON-RPC 方式进行通信,支持 STDIO 和 HTTP 两种传输通道。

Redstack Vault MCP 服务器

基于 Model Context Protocol 的后端服务器,向大语言模型客户端提供资源、工具和提示模板的标准化上下文服务,通过 JSON-RPC 进行请求/响应,且支持 SSE/WebSocket 等传输形式,便于在受控环境中实现高效的上下文管理与外部功能调用。

Opencode MCP 语义上下文服务器

基于 Model Context Protocol (MCP) 的后端服务器,用于向 LLM 客户端提供持久化记忆、工具执行和 Prompt 模板渲染等上下文服务;通过 JSON-RPC 与客户端通信,支持内存资源管理、工具注册/执行、Prompt 渲染,以及会话管理,具备本地向量检索、离线嵌入和多种传输能力的服务端实现。

docsearch-mcp

基于 Model Context Protocol (MCP) 的后端服务器,为大语言模型客户端提供资源访问、工具调用和提示模板的统一上下文服务,支持文档索引、向量检索、以及与 Claude Code 等 MCP 客户端的无缝集成。

DMCP 动态模型上下文协议服务器

基于 MCP 的后端实现,提供动态工具发现、向量检索和跨后端工具路由,供 LLM 客户端通过 JSON-RPC 进行资源读取、工具调用与提示渲染。

HMLR Memory MCP 服务器(Go 实现)

基于 Model Context Protocol 的内存后端服务器,提供资源管理、工具执行与提示渲染等 MCP 功能。通过标准的 JSON-RPC 风格接口与客户端通信,内部实现了会话管理、主题路由、向量检索、事实抽取等能力,并通过标准输入输出(STDIO)提供 MCP 服务,适配 Claude Code 等 MCP 客户端进行上下文管理与外部功能调用。

MySQL MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 MySQL 的只读资源访问、工具执行、向量工具以及可渲染的提示模板能力,并通过 JSON-RPC/HTTP 等传输与 LLM 客户端进行安全、可扩展的交互。

Forgetful Memory Service

一个基于MCP协议的知识存储与检索系统,专为AI智能体提供跨会话的持久化记忆管理。

Spring AI Alibaba 智能数据分析代理

基于Spring AI的企业级数据分析MCP服务器,提供智能数据查询、SQL生成和报告生成功能

Claude Skills MCP 服务器

一个基于Model Context Protocol (MCP) 构建的服务器,旨在为LLM(如Claude Agent)提供高效的技能搜索、管理和文档访问能力,支持本地部署和自动更新。

第二大脑AI助手MCP服务器

为LLM客户端提供个人知识管理(PKM)的上下文信息和工具,支持文档语义搜索、内容统计及领域查询,通过MCP协议进行标准化通信。

FlowVO

基于微服务架构的智能对话与向量检索平台,包含数据库、文件等MCP服务,支持Function Call。

阿里云OpenSearch及AI搜索 MCP服务器

集成阿里云OpenSearch向量检索和AI搜索服务,提供丰富的上下文信息和工具能力给LLM客户端。

MCP RAG 服务器

基于MCP协议的RAG服务器,支持多格式文档索引与向量检索,通过JSON-RPC为LLM客户端提供服务。

Meilisearch Lite MCP Server

基于 Meilisearch 的轻量级 MCP 服务器,提供 Markdown 文档的全文和向量搜索能力。

Coco MCP服务器

Coco MCP服务器是 wearable 设备 coco 的后端实现,通过 Model Context Protocol (MCP) 标准协议,为 LLM 应用提供音频数据资源访问和向量检索能力。

Vectorize MCP Server

Vectorize MCP Server 是一个基于 Model Context Protocol 的服务器实现,它集成了 Vectorize 平台,为 LLM 应用提供文档检索、文本抽取和深度研究等增强上下文能力。

统一知识管理系统

集成多源知识的统一知识管理系统,通过MCP服务器为LLM客户端提供结构化知识访问和检索能力。

MCP多功能服务平台

MCP多功能服务平台是一个后端服务,为大型语言模型提供文件、数据库、API和向量数据库等资源的访问和管理能力,支持LLM应用构建。

阿里云表格存储MCP服务器

基于阿里云表格存储构建的MCP服务器,提供文档的存储和检索工具,方便LLM应用集成表格存储服务。

Qdrant MCP 服务器

基于MCP协议实现的Qdrant向量数据库后端服务,为LLM应用提供向量数据管理和检索能力。

Progmo MCP Server

Progmo MCP Server 是一个基于 MCP 协议的后端,为 LLM 客户端提供知识管理、代码审查和测试管理等工具和服务。

mcp server weaviate

基于MCP协议实现的Weaviate知识库和记忆服务器,为LLM客户端提供知识检索和记忆存储功能。