← 返回首页

"本地嵌入"标签的搜索结果

找到 4 个结果

SAME MCP 服务端

基于模型上下文协议(MCP)的后端服务器实现,提供对知识 vault 的资源管理、工具调用与提示模板渲染等能力,通过 JSON-RPC 方式与 LLM 客户端交互,支持标准的文本/向量检索、注释日志、手动与自动化操作等场景,并以标准的 stdio 传输启动 MCP 服务,方便与 Claude Code 等工具链对接。

Octobrain MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供内存资源管理、工具执行以及提示模板渲染等能力,通过 JSON-RPC 在标准输入输出(STDIO)与 LLM 客户端进行通信,支持多种内部传输与会话管理,用于向 LLM 客户端提供可访问的上下文信息与功能。

AI Craftsman Knowledge Rag MCP Server

基于 Model Context Protocol (MCP) 的本地知识检索后端服务器,向大语言模型客户端暴露知识源查询与源信息工具,支持项目级/全局知识库、向量检索以及本地嵌入计算,便于在本地环境中实现私有化、可控的知识上下文服务。

Opencode MCP 语义上下文服务器

基于 Model Context Protocol (MCP) 的后端服务器,用于向 LLM 客户端提供持久化记忆、工具执行和 Prompt 模板渲染等上下文服务;通过 JSON-RPC 与客户端通信,支持内存资源管理、工具注册/执行、Prompt 渲染,以及会话管理,具备本地向量检索、离线嵌入和多种传输能力的服务端实现。