← 返回首页

"本地知识库"标签的搜索结果

找到 15 个结果

Ollama-RAG-Sync MCP 服务器

基于Ollama和MCP,为LLM客户端提供RAG上下文检索和工具调用能力的后端服务。

本地知识库 MCP 服务器

一个本地知识库 MCP 服务器,为大型语言模型提供个性化数据存储、检索和管理能力。

pyLLMSearch

基于Model Context Protocol (MCP) 的高级RAG后端服务,提供文档搜索、问答和上下文管理能力。

Recall.js MCP服务器

Recall.js 作为一个轻量级RAG系统,通过MCP协议提供语义搜索工具,为LLM应用提供本地知识库的访问能力。

知识库MCP服务器

提供基于FAISS索引的本地知识库语义搜索能力,通过MCP协议与LLM客户端交互。

mcp docs rag

一个基于Model Context Protocol的MCP服务器,实现了本地文档的RAG (检索增强生成) 功能,支持用户查询本地Git仓库和文本文件。

mcp server

Inkdrop MCP Server为LLM客户端提供访问Inkdrop笔记应用数据的能力,支持笔记检索、创建和笔记本列表等功能。

minima

Minima MCP Server为Anthropic Claude等LLM客户端提供本地文件RAG能力,支持工具调用和Prompt定制,实现安全可扩展的上下文服务。

mcp apple notes

该项目是一个MCP服务器,通过语义搜索和RAG技术,使AI助手能够访问和检索用户的Apple Notes内容,实现本地知识库的集成。

mcp server on raspi

一个简单的MCP服务器,实现了笔记管理功能,允许LLM客户端创建、读取、总结笔记,并通过工具添加新笔记。

LanceDB

LanceDB MCP Server 是一个基于 LanceDB 向量数据库的 MCP 服务器,为 LLM 应用提供文档检索和上下文信息查询功能。

Apple Notes

MCP Apple Notes 是一个本地运行的MCP服务器,允许AI助手(如Claude)通过语义搜索和RAG访问和利用用户的Apple Notes数据。

Minima (Local RAG)

Minima MCP服务器为本地RAG应用提供与LLM客户端(如Anthropic Claude)进行上下文交互的桥梁,支持资源访问、工具调用和Prompt模板。

Files Vector Store

Files Vector Store 是一个 MCP 服务器,它能够监控指定目录的文件,并对其内容进行语义索引,从而为 LLM 提供本地文件的语义搜索能力。

Obsidian Reader

Obsidian Reader MCP服务器将您的本地Obsidian笔记库连接到LLM客户端,提供笔记内容读取和搜索功能,增强LLM的上下文感知能力。