← 返回首页

"向量检索"标签的搜索结果

找到 37 个结果

Claude Copilot MCP 服务器集合

基于 Model Context Protocol (MCP) 的后端服务器集合,提供内存管理、语义检索、知识扩展与技能加载等能力,面向 Claude Copilot 等 LLM 客户端,通过标准化的 JSON-RPC 交互向客户端提供资源、工具、提示等上下文与功能服务。

AIMED ConPort MCP 后端服务器

基于 ConPort MCP 的完整后端实现,提供模型上下文(Resources)、工具(Tools)、提示模板(Prompts)等标准 MCP 功能,并集成多工作区隔离、向量嵌入检索和知识图谱可视化,面向向大语言模型的上下文服务与外部功能调用。Subscribe to JSON-RPC over HTTP,支持会话管理与多传输方案。此仓库包含服务器端实现代码、数据库迁移、向量存储以及与 UI/dashboard 的整合。

Stacks Builder MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供 Clarity 相关上下文资源、工具调用与代码生成等能力,并通过 MCP 协议与客户端进行标准化交互,支持通过标准传输(如 STDIO)与多种后端服务集成。

MemWyre MCP 服务器端实现

MemWyre 的 MCP 服务器端实现,基于 Model Context Protocol 架构,为 LLM 客户端提供标准化的资源、工具与提示模板,并通过 JSON-RPC 风格接口与客户端通信,支持会话管理、能力声明及多传输通道的扩展能力。

OASM MCP Server

基于 Model Context Protocol (MCP) 的后端服务,用于向大模型客户端以标准化方式提供上下文、资源、工具和提示模板,并通过 gRPC/HTTPS 等协议实现对外通信与会话管理。该实现涵盖资源与工具的托管与访问、Prompts 的定义渲染、以及对多服务器的注册与健康状态管理。实现面向可扩展的上下文服务框架,便于在 LLM 场景中集成外部能力。

OSINT MCP 服务器

基于 Model Context Protocol(MCP)的后端服务器,通过 JSON-RPC 提供资源、工具与提示模板给 LLM 客户端,并以标准化的方式与 OSINT 平台 API 对接,支持通过 Stdio 传输进行通信与会话管理。

OpenSaas Stack MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源管理、工具执行与提示模板的注册与渲染能力,并通过 JSON-RPC 与客户端进行交互,支持会话管理、能力声明以及多传输协议接入,旨在为 LLM 客户端提供安全、可扩展的上下文服务。

MarkdownSpecs MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器,提供对本地 Markdown 规格文档的资源管理、工具调用以及基于向量检索的语义检索能力,便于将文档内容以标准化方式提供给大语言模型客户端。实现了资源读取、目录查询、全文搜索、按标签筛选、以及语义搜索等核心功能。

Finnie AI MCP - 多工具后端服务集合

基于 Model Context Protocol (MCP) 的一组后端服务器,提供资源、工具与 prompts 的标准化上下文与功能,面向 LLM 客户端通过 JSON-RPC/SSE 等传输协议进行资源读取、工具调用、以及提示模板渲染等能力,支持多种传输通道与缓存优化,构建可扩展的金融上下文服务框架。

Memory Library MCP Server

基于 Memory Library 的 MCP 服务器实现,为大语言模型客户端提供统一的上下文、工具、资源和提示,支持通过 JSON-RPC 进行交互,并可扩展的向量检索与嵌入管理能力。

Codesearch MCP 服务端

基于 Model Context Protocol (MCP) 的后端服务器实现。该服务器托管并管理资源、注册并执行工具、定义并渲染 prompts,通过 MCP 协议与客户端进行 JSON-RPC 通信,支持将多代理代码搜索能力整合为一个可扩展的后端服务(当前实现以标准输入传输(stdio)为主,未来可扩展到 SSE/WebSocket 等传输方式)。

claudemem MCP 服务端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,用于向 Claude Code 客户端以标准化方式提供资源管理、工具注册与执行、以及提示模板渲染等功能,支持通过 JSON-RPC 与客户端通信,并提供本地/云模型的嵌入索引、检索与分析能力。该仓库实现了完整的 MCP 服务器端逻辑与相关工具集成,而不仅仅是客户端示例。

Enfinyte MCP 服务端

基于 Model Context Protocol(MCP)的后端服务器实现,提供资源、工具与 Prompt 的注册、执行与渲染,并通过 JSON-RPC/多传输协议(如 HTTP/SSE/WebSocket)与 LLM 客户端进行安全、可扩展的上下文服务交互。

PocketRAG MCP集成服务器

基于 Model Context Protocol (MCP) 的本地化后端,提供资源管理、工具注册与执行,以及通过标准化的 MCP JSON-RPC 流程与 Claude Desktop 等 LLM 客户端通信的能力,用于在本地进行文档检索与上下文提供。该实现包含一个以Stdio为传输的 MCP 服务端,及一组用于知识库检索、统计与文档列举的工具。

Context8 MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,用于向大型语言模型(LLM)客户端暴露私有代码资源、可执行工具和可渲染的 Prompt 模板等上下文服务,并通过 JSON-RPC 方式进行通信,支持 STDIO 和 HTTP 两种传输通道。

Redstack Vault MCP 服务器

基于 Model Context Protocol 的后端服务器,向大语言模型客户端提供资源、工具和提示模板的标准化上下文服务,通过 JSON-RPC 进行请求/响应,且支持 SSE/WebSocket 等传输形式,便于在受控环境中实现高效的上下文管理与外部功能调用。

Opencode MCP 语义上下文服务器

基于 Model Context Protocol (MCP) 的后端服务器,用于向 LLM 客户端提供持久化记忆、工具执行和 Prompt 模板渲染等上下文服务;通过 JSON-RPC 与客户端通信,支持内存资源管理、工具注册/执行、Prompt 渲染,以及会话管理,具备本地向量检索、离线嵌入和多种传输能力的服务端实现。

docsearch-mcp

基于 Model Context Protocol (MCP) 的后端服务器,为大语言模型客户端提供资源访问、工具调用和提示模板的统一上下文服务,支持文档索引、向量检索、以及与 Claude Code 等 MCP 客户端的无缝集成。

DMCP 动态模型上下文协议服务器

基于 MCP 的后端实现,提供动态工具发现、向量检索和跨后端工具路由,供 LLM 客户端通过 JSON-RPC 进行资源读取、工具调用与提示渲染。

HMLR Memory MCP 服务器(Go 实现)

基于 Model Context Protocol 的内存后端服务器,提供资源管理、工具执行与提示渲染等 MCP 功能。通过标准的 JSON-RPC 风格接口与客户端通信,内部实现了会话管理、主题路由、向量检索、事实抽取等能力,并通过标准输入输出(STDIO)提供 MCP 服务,适配 Claude Code 等 MCP 客户端进行上下文管理与外部功能调用。

MySQL MCP Server

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对 MySQL 的只读资源访问、工具执行、向量工具以及可渲染的提示模板能力,并通过 JSON-RPC/HTTP 等传输与 LLM 客户端进行安全、可扩展的交互。

Forgetful Memory Service

一个基于MCP协议的知识存储与检索系统,专为AI智能体提供跨会话的持久化记忆管理。

Spring AI Alibaba 智能数据分析代理

基于Spring AI的企业级数据分析MCP服务器,提供智能数据查询、SQL生成和报告生成功能

Claude Skills MCP 服务器

一个基于Model Context Protocol (MCP) 构建的服务器,旨在为LLM(如Claude Agent)提供高效的技能搜索、管理和文档访问能力,支持本地部署和自动更新。

第二大脑AI助手MCP服务器

为LLM客户端提供个人知识管理(PKM)的上下文信息和工具,支持文档语义搜索、内容统计及领域查询,通过MCP协议进行标准化通信。

FlowVO

基于微服务架构的智能对话与向量检索平台,包含数据库、文件等MCP服务,支持Function Call。

阿里云OpenSearch及AI搜索 MCP服务器

集成阿里云OpenSearch向量检索和AI搜索服务,提供丰富的上下文信息和工具能力给LLM客户端。

MCP RAG 服务器

基于MCP协议的RAG服务器,支持多格式文档索引与向量检索,通过JSON-RPC为LLM客户端提供服务。

Meilisearch Lite MCP Server

基于 Meilisearch 的轻量级 MCP 服务器,提供 Markdown 文档的全文和向量搜索能力。

Coco MCP服务器

Coco MCP服务器是 wearable 设备 coco 的后端实现,通过 Model Context Protocol (MCP) 标准协议,为 LLM 应用提供音频数据资源访问和向量检索能力。

Vectorize MCP Server

Vectorize MCP Server 是一个基于 Model Context Protocol 的服务器实现,它集成了 Vectorize 平台,为 LLM 应用提供文档检索、文本抽取和深度研究等增强上下文能力。

统一知识管理系统

集成多源知识的统一知识管理系统,通过MCP服务器为LLM客户端提供结构化知识访问和检索能力。

MCP多功能服务平台

MCP多功能服务平台是一个后端服务,为大型语言模型提供文件、数据库、API和向量数据库等资源的访问和管理能力,支持LLM应用构建。

阿里云表格存储MCP服务器

基于阿里云表格存储构建的MCP服务器,提供文档的存储和检索工具,方便LLM应用集成表格存储服务。

Qdrant MCP 服务器

基于MCP协议实现的Qdrant向量数据库后端服务,为LLM应用提供向量数据管理和检索能力。

Progmo MCP Server

Progmo MCP Server 是一个基于 MCP 协议的后端,为 LLM 客户端提供知识管理、代码审查和测试管理等工具和服务。

mcp server weaviate

基于MCP协议实现的Weaviate知识库和记忆服务器,为LLM客户端提供知识检索和记忆存储功能。