基于 Model Context Protocol (MCP) 的 Engram 内存管理后端实现。该服务器将内存资源、工具执行和提示模板通过 MCP 协议对外暴露,支持 Claude Code/Cursor/Codex 等客户端的上下文注入、记忆操作和提示渲染,且具备会话管理、能力声明及多传输协议适配能力。仅作为 MCP 服务端实现,与客户端无关。
基于 Model Context Protocol (MCP) 的后端服务,提供资源管理、工具注册与执行、以及 Prompt 模板渲染,通过 JSON-RPC 与 LLM 客户端交互,支持多传输模式与会话管理。
基于 Model Context Protocol (MCP) 的后端服务器实现,用于向 LLM 客户端提供文献检索、知识管理、工具调用和提示模板等上下文服务,支持 Zotero 集成、RAG 搜索、知识图谱(Argument Map)以及自动化工作流工具等功能。
基于 MCP(Model Context Protocol)协议的后端服务器,向 LLM 客户端提供统一的上下文资源、可注册执行的工具以及可渲染的提示/模板,支持 JSON-RPC 通信、多种传输协议,以及会话管理与能力声明,便于在聚类分析、语义检索和论文上下文中为大语言模型提供可扩展的 contexto 服务。
一个为LLM应用提供高效上下文管理、语义检索和外部工具调用能力的后端服务,支持Claude Code (MCP) 集成。
一个基于Model Context Protocol的服务器,提供YouTube视频搜索、转录和语义检索工具,增强LLM对YouTube内容的理解和应用能力。