基于 Model Context Protocol (MCP) 的 Engram 内存管理后端实现。该服务器将内存资源、工具执行和提示模板通过 MCP 协议对外暴露,支持 Claude Code/Cursor/Codex 等客户端的上下文注入、记忆操作和提示渲染,且具备会话管理、能力声明及多传输协议适配能力。仅作为 MCP 服务端实现,与客户端无关。
基于 Model Context Protocol (MCP) 的后端服务器实现,用于向 LLM 客户端提供文献检索、知识管理、工具调用和提示模板等上下文服务,支持 Zotero 集成、RAG 搜索、知识图谱(Argument Map)以及自动化工作流工具等功能。
基于 Model Context Protocol (MCP) 的服务器实现,提供对足球知识图谱的资源访问、工具执行与图分析能力,通过 MCP 协议向客户端提供标准化的上下文服务和分析工具。
基于 Model Context Protocol 的本地 MCP 服务器,提供内存管理、知识图谱、工具执行、提示模板等功能,并可通过标准的 JSON-RPC(stdio/HTTP/SSE)与 LLM 客户端通信。
基于 Model Context Protocol (MCP) 的后端服务,提供 Evidence 管理、MCP 工具注册与执行,以及 provenance/RDF 数据维护等能力,并通过 MCP JSON-RPC 与客户端进行交互,适合与 VS Code 扩展等前端组件协同工作。
基于 Model Context Protocol 的后端服务器,向大语言模型客户端提供资源、工具和提示模板的标准化上下文服务,通过 JSON-RPC 进行请求/响应,且支持 SSE/WebSocket 等传输形式,便于在受控环境中实现高效的上下文管理与外部功能调用。
RhizomeDB MCP服务器是一个基于Delta-CRDTs超图数据库的后端,为AI Agent提供持久化知识图谱服务,支持数据存储、查询和复杂关系管理。
为LLM编程助手提供基于特定代码库的上下文信息和工具,以生成更准确、可靠的LangGraph代码。
ProspectPro MCP 服务层提供了一系列专业化的 Model Context Protocol (MCP) 服务器,用于可观测性、故障排除、记忆管理和结构化思维,以支持其 AI 代理工作流。
为编码智能体提供Actor-Critic驱动的上下文服务,利用知识图谱增强记忆与决策能力。
基于Model Context Protocol,为LLM客户端提供Apache AGE图数据库的上下文访问和操作能力。
Cyberon 是一个基于 Flask 的 Web 应用程序,同时也是一个 Model Context Protocol (MCP) 服务器,用于探索和可视化知识本体,并为 LLM 客户端提供上下文服务。
NebulaGraph MCP Server是一个基于Model Context Protocol的服务器,为LLM应用提供访问NebulaGraph图数据库的能力,支持图数据查询、路径查找和邻居检索等功能。
mcp-elastic-memory仓库是一个基于Elasticsearch构建的可扩展知识图谱MCP服务器实现,为LLM应用提供结构化知识存储、检索和管理能力。
基于Serper API的MCP服务器,为LLM应用提供强大的Google搜索能力,支持丰富的搜索参数和结构化结果。