HyperHierarchicalRAG MCP Server
使用说明(Markdown 格式)
项目概述
- HyperHierarchicalRAG MCP 服务器将 LightRAG 与 HGMem 的能力封装为 MCP 工具,提供对资源(资源/文档)、工具调用、提示模板等的统一访问入口,支持会话管理与多种传输协议,便于与大型语言模型或智能代理进行上下文管理与扩展。
主要功能点
- MCP 服务端核心能力
- 资源与知识管理:插入文档、读取和删除文档,以及基于文档内容的实体/关系提取框架。
- 知识查询与提示:提供本地查询、本体查询、混合查询等能力的入口,支持记忆演化和内存上下文扩展。
- 超图记忆与推理:通过 HGMem 的多跳扩展与记忆点管理实现对记忆的演化、扩展与持久化。
- 知识图谱与实体管理:创建实体、创建关系、获取实体信息、获取知识图谱、合并实体等工具。
- 系统工具与监控:健康检查、图统计、导出数据、清理缓存、图可视化等工具。
- MCP 集成:通过 JSON-RPC 风格的工具暴露,客户端可根据需要调用。
安装与运行
- 环境要求:Python 3.12 及以上(仓库 README 指出 Python 3.12+)。
- 依赖安装(示例,具体请参考项目 README 的 uv 环境与扩展包安装指引):
- 需要安装 MCP 运行时与相关依赖(如 uv/fastmcp、LightRAG、HGMem、OpenAI/Ollama 客户端等)。
- 运行服务器(命令示例,不是代码块,仅说明性描述):
- 使用 Python 直接运行模块方式启动 MCP 服务器:
- 命令:python -m hyperhierarchical_rag.mcp_server
- 该命令会加载环境配置并启动 MCP 服务器,提供 22 种工具供客户端调用。
- 也可以通过配置化的传输方式(如 stdio/SSE/WebSocket 等)按项目需要接入。
- 使用 Python 直接运行模块方式启动 MCP 服务器:
- 配置说明
- MCP 客户端需要至少知道服务器的启动命令与参数来建立连接。下面给出一个示例配置(以 JSON 表示,供 MCP 客户端使用,不需要嵌入代码): { "server_name": "HyperHierarchicalRAG MCP Server", "command": "python", "args": ["-m", "hyperhierarchical_rag.mcp_server"], "description": "MCP Server for HyperHierarchicalRAG exposing 22 Tools for LLM agents", "env": { "LLM_PROVIDER": "ollama", "OLLAMA_HOST": "http://localhost:11434", "EMBEDDING_MODEL": "nomic-embed-text", "EMBEDDING_DIM": "768" }, "transport": "stdio", "notes": "该配置用于 MCP 客户端在本地启动并连接服务器,实际传输方式可按你的环境调整。" }
基本使用方式
- 启动后,MCP 客户端通过 JSON-RPC 方式发送请求,服务器返回标准化的 JSON-RPC 响应或通知,客户端可逐步对接以下能力:
- 插入文档并建立知识图谱
- 执行混合/局部/全局查询并获取记忆扩展
- 管理实体与关系、获取知识图谱、导出数据
- 获取健康状态、图统计、生成可视化等
- 在开发阶段,你可以通过 MCP 客户端工具逐步测试每个工具的输入参数与返回字段,以确保与你的智能代理无缝对接。
注意事项
- MCP 服务端依赖于底层的 LightRAG、HGMem、以及相应的向量存储与数据库实现,请确保环境中相关组件可用并正确配置。
- 由于该实现包含较多跨模块的集成,实际部署时建议先在本地环境逐步启动并测试核心工具(如 insert_document、query、get_health、get_graph_stats)。
关键词 知识图谱, 超图记忆, 记忆演化, 多跳推理, 工具调用
分类ID 6