使用说明内容(Markdown格式)
-
项目简介
- 这是一个基于 Model Context Protocol(MCP)的后端服务器实现,专门用于在本地项目目录中持久化与管理 AI 助手的认知碎片。它将知识图谱(实体、关系)、上下文信息等集中管理,并以 MCP 标准的工具、资源、提示等能力对外暴露,供 LLM 客户端查询、修改和执行。
-
主要功能点
- 知识图谱管理:在项目根目录下存储并维护 memory.json,提供实体、关系、观测等数据结构的增删改查。
- 上下文管理:维护当前任务状态、下一步计划、最近提交等上下文信息,支持并发安全写入。
- 工具与资源注册:实现 n2n_add_entities、n2n_read_graph、n2n_update_context 等工具,并提供资源读取与导出能力(如导出 Markdown 的知识图谱)。
- 数据一致性与安全性:对内存文件进行原子写入和跨进程锁定,确保多进程并发场景下数据的一致性与安全性。
- MCP 服务器实现:通过标准的 MCP 服务端框架(McpServer)接入,使用 stdio 传输,支持工具执行、资源读取及图谱查询等标准操作。
- 本地化与隔离:内存与知识图谱与代码仓库本地化存储,便于 Git 跟踪与团队协作。
-
安装步骤
- 安装前提:需安装 Node.js 20 及以上版本(代码中对环境有基本检查)。
- 运行方式:通过 npx 直接启动服务器(示例用法在仓库自描述中给出)。
- 依赖与构建:项目采用 TypeScript 编写,依赖 MCP SDK 及若干工具库,运行时会自动拉取镜像包并启动服务。
-
服务器配置(供 MCP 客户端使用的字段说明)
- 服务器名称(server name): n2n-memory
- 启动命令(command): npx
- 启动参数(args): ["-y", "@datafrog-io/n2n-memory"]
- 说明:该配置用于 MCP 客户端启动时连接服务器,描述字段仅用于理解如何将客户端配置连接至该服务器,实际客户端代码可参考仓库中提供的 Quick Start 说明与 README。服务器端实现会自行暴露各类工具与资源,客户端仅需知道启动命令与服务器名称即可建立连接。
-
基本使用方法
- 启动服务器:在支持 MCP 客户端的环境中,通过前述配置命令启动服务器,服务器会通过标准输入输出(stdio)与客户端通信。
- 初始化本地项目根:在首次使用该服务器前,确保项目目录具备可识别的根标记(如 .git、package.json、README.md 等),以便服务器能够正确识别并创建内存上下文。
- 使用工具与资源:通过 MCP 客户端调用 n2n_add_entities、n2n_read_graph、n2n_update_context 等工具来修改/查询知识图谱与上下文信息。
- 存储位置与导出:知识图谱默认存放在 [ProjectRoot]/.mcp/memory.json;可通过导出功能生成 Markdown 文档,方便团队协作与版本控制。
- 退出与维护:在需要时通过相应的服务器关机流程释放资源锁;服务器设计包含跨进程锁与快照缓存,确保关机时能够干净释放。
信息
分类
AI与计算