返回首页

"本地向量检索" 标签

4 个结果

标签搜索结果

AI与计算

Reddit Stash Insights MCP Server

基于 Model Context Protocol (MCP) 的后端服务器,实现将 Reddit Stash 的索引、查询与对话能力以工具形式暴露给 Claude Code 等 MCP 客户端,提供资源访问、工具调用和提示模板渲染等上下文服务。

AI与计算

lgrep MCP 服务器

基于 Model Context Protocol (MCP) 的后端服务,提供本地化的语义检索与符号工具,支持多会话并通过 JSON-RPC 风格的 MCP 接口向 LLM 客户端暴露资源、工具和提示模板等上下文能力,便于构建以上下文驱动的代码理解和推理能力。

AI与计算

Lumen MCP 服务器

基于 Model Context Protocol (MCP) 的本地后端实现,提供对资源的内部管理、注册并执行工具(如语义搜索与索引状态查询)、并通过 JSON-RPC 与 LLM 客户端进行通信。当前实现以 stdio 传输为主,内置 semantic_search 和 index_status 两个工具,支持进度通知、增量索引和向量检索等能力,适用于本地无云、无外部依赖的 AI 代码理解与上下文服务场景。

AI与计算

obsidian-notes-rag MCP 服务器

一个基于 Model Context Protocol 的 MCP 服务器实现,提供 Obsidian 笔记的语义搜索、上下文获取和相关工具调用接口,方便将笔记上下文集成到任意 AI 助手对话中。