← 返回首页

"语义检索"标签的搜索结果

找到 25 个结果

Engram MCP Server

基于 Model Context Protocol (MCP) 的 Engram 内存管理后端实现。该服务器将内存资源、工具执行和提示模板通过 MCP 协议对外暴露,支持 Claude Code/Cursor/Codex 等客户端的上下文注入、记忆操作和提示渲染,且具备会话管理、能力声明及多传输协议适配能力。仅作为 MCP 服务端实现,与客户端无关。

SaveContext MCP 服务器

基于 Model Context Protocol 的本地化 MCP 服务器,向 LLM 客户端提供资源管理、工具注册与执行、提示模板渲染等能力,支持多会话、嵌入式语义检索、离线部署和多工具协作。

Ragdoc MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供资源管理、工具注册与执行、以及 Prompt 模板渲染,通过 JSON-RPC 与 LLM 客户端交互,支持多传输模式与会话管理。

mcp-local-rag

本地 MCP 服务器实现,用于面向大语言模型的RAG场景,提供文档资源管理、外部工具执行与基于向量检索的上下文服务,并可通过 OCR 将 PDFs 转换为可检索的文本内容。

Modular RAG MCP Server

基于 Model Context Protocol (MCP) 的可插拔企业级后端服务器框架,向 LLM 客户端提供资源管理、工具执行与 Prompt 渲染等上下文能力,并通过 JSON-RPC 与客户端通信,支持结构化日志、监控与多种传输协议的扩展能力。仓库实现了 MCP 相关协议适配、工具注册与执行、资源/向量检索以及多模块协作的核心组件,形成可扩展的对话式知识背景服务。

OpenNote MCP 后端服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供对用户文档资源的语义检索、文档元数据与内容访问等能力,并通过 JSON-RPC/流式 HTTP 与 LLM 客户端进行交互,适配多用户场景和嵌入向量服务的后端数据服务。

SDLXLIFF MCP 服务器

基于 Model Context Protocol (MCP) 的 SDLXLIFF 语言对翻译后端服务器,提供读取/更新/保存 SDLXLIFF 片段、打分与标签保留的修订、QA 检查、术语与拼写检查,以及与向量检索(RAG)的上下文管理集成,支持 JSON-RPC 形式的客户端请求与响应。

AI Context MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务器实现,提供资源托管、工具注册与执行、以及提示模板的渲染与渲染能力,支持通过多种传输协议与客户端进行 JSON-RPC 风格的交互,作为 LLM 客户端的上下文服务框架。

litrev-mcp

基于 Model Context Protocol (MCP) 的后端服务器实现,用于向 LLM 客户端提供文献检索、知识管理、工具调用和提示模板等上下文服务,支持 Zotero 集成、RAG 搜索、知识图谱(Argument Map)以及自动化工作流工具等功能。

RAG MCP Server for Grounding

基于 Model Context Protocol 的 MCP 服务器实现,暴露 Grounding RAG 管线的检索、嵌入与上下文扩展等工具给大语言模型客户端,支持标准 MCP 请求/响应、StdIO 与 HTTP 传输,便于与 Claude Code、Amp 等对话代理协作。

Abstracts Explorer MCP Server

基于 MCP(Model Context Protocol)协议的后端服务器,向 LLM 客户端提供统一的上下文资源、可注册执行的工具以及可渲染的提示/模板,支持 JSON-RPC 通信、多种传输协议,以及会话管理与能力声明,便于在聚类分析、语义检索和论文上下文中为大语言模型提供可扩展的 contexto 服务。

Context8 MCP 服务器端实现

基于 Model Context Protocol (MCP) 的后端服务器实现,用于向大型语言模型(LLM)客户端暴露私有代码资源、可执行工具和可渲染的 Prompt 模板等上下文服务,并通过 JSON-RPC 方式进行通信,支持 STDIO 和 HTTP 两种传输通道。

Midnight MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供资源、工具、Prompts 的注册、管理与渲染,并通过 JSON-RPC 与客户端通信,支持会话管理、能力声明以及多传输协议接入,面向 LLM 的上下文服务与功能扩展。

narsil-mcp

基于 Model Context Protocol (MCP) 的高性能本地后端服务器实现,提供资源管理、工具注册与执行、以及基于模板的 Prompt 渲染,支持 JSON-RPC 标准交互、会话管理和多传输协议(如 STDIO、SSE、WebSocket),用于本地化的代码上下文理解与分析场景。内置多语言代码解析、符号与引用检索、调用图与安全分析等工具集,面向离线/隐私安全的 LLM 客户端提供丰富上下文服务。

Dolphin 知识库 MCP 服务器

Dolphin 是一个为 AI 接口提供语义代码搜索和知识管理的 MCP 服务器,通过托管资源、注册工具和定义 Prompt 模板,以标准化方式向 LLM 客户端提供上下文信息和功能。

FlowDex LLM上下文管理与工具路由服务

一个为LLM应用提供高效上下文管理、语义检索和外部工具调用能力的后端服务,支持Claude Code (MCP) 集成。

MemMachine

MemMachine 是一个通用AI记忆层,通过MCP协议为AI Agent提供持久化、个性化的短期和长期记忆管理服务。

Vectra知识库MCP服务器

Vectra MCP Server是一个基于Model Context Protocol的服务器,用于连接和查询Vectra知识库,提供知识库管理和查询工具。

YouTube MCP服务器

一个基于AI的YouTube内容增强MCP服务器,提供视频搜索、转录和语义检索等工具,无需官方API。

YouTube MCP服务器

一个基于Model Context Protocol的服务器,提供YouTube视频搜索、转录和语义检索工具,增强LLM对YouTube内容的理解和应用能力。

Pixeltable MCP Server

Pixeltable MCP 服务器提供多模态数据索引和查询服务,支持音频、视频、图像和文档等多种数据类型。

imessage mcp

imessage-mcp 是一个本地 iMessage 消息检索 MCP 服务器,允许 LLM 客户端通过语义相似性搜索用户的 iMessage 消息历史记录,提供上下文信息。

mcp server rememberizer

连接大型语言模型与Rememberizer知识库,提供文档搜索、检索和数据集成等功能,作为MCP协议服务器为LLM应用提供上下文服务。

RAG Docs

RAG Docs 是一个 MCP 服务器,它允许用户通过语义搜索,在文档库中检索信息,支持从URL或本地文件添加文档,并使用向量数据库Qdrant进行存储和检索。

Rememberizer

Rememberizer MCP服务器将您的Rememberizer知识库连接到LLM客户端,提供文档搜索、知识检索和账户管理等工具。