标签搜索结果
基于 Model Context Protocol (MCP) 的本地向量检索后端,使用 FAISS 构建向量存储并对接 MCP 客户端,提供文档资源管理、向量检索工具与可渲染的提示模板,支持与 LLM 的安全高效上下文交互、多种传输模式(如标准输入输出)。
基于 Model Context Protocol (MCP) 的本地后端实现,提供对资源的内部管理、注册并执行工具(如语义搜索与索引状态查询)、并通过 JSON-RPC 与 LLM 客户端进行通信。当前实现以 stdio 传输为主,内置 semantic_search 和 index_status 两个工具,支持进度通知、增量索引和向量检索等能力,适用于本地无云、无外部依赖的 AI 代码理解与上下文服务场景。