基于 Model Context Protocol (MCP) 的后端服务器实现,提供对资源、工具与提示模板的标准化上下文服务,通过 JSON-RPC 与 LLM 客户端通信,支持通过标准传输(如 stdio)启动并对接外部数据服务与工具调用。
基于 Model Context Protocol(MCP)的服务器实现,为 Obsidian 知识库提供资源、工具、提示模板等统一访问接口,通过 JSON-RPC 与客户端通信,支持 STDIO 与本地 HTTP 传输,并与本地向量检索索引数据库协同工作。
基于 MCP(Model Context Protocol)协议的后端服务器,向 LLM 客户端提供统一的上下文资源、可注册执行的工具以及可渲染的提示/模板,支持 JSON-RPC 通信、多种传输协议,以及会话管理与能力声明,便于在聚类分析、语义检索和论文上下文中为大语言模型提供可扩展的 contexto 服务。
基于 Fred 平台的 MCP 服务器实现,提供以标准化方式向大语言模型客户端提供资源、工具、提示模板等上下文与能力的后端服务,并通过 JSON-RPC/多传输通道进行通信。包含知识流后端的完整 MCP 服务、以及用于快速演示的最小 MCP 服务器示例和相应部署示例。
基于 Model Context Protocol 的内存后端服务器,提供资源管理、工具执行与提示渲染等 MCP 功能。通过标准的 JSON-RPC 风格接口与客户端通信,内部实现了会话管理、主题路由、向量检索、事实抽取等能力,并通过标准输入输出(STDIO)提供 MCP 服务,适配 Claude Code 等 MCP 客户端进行上下文管理与外部功能调用。