使用说明内容(Markdown格式)

  • 项目简介

    • 这是一个基于 Model Context Protocol(MCP)的后端服务器实现,专门用于在本地项目目录中持久化与管理 AI 助手的认知碎片。它将知识图谱(实体、关系)、上下文信息等集中管理,并以 MCP 标准的工具、资源、提示等能力对外暴露,供 LLM 客户端查询、修改和执行。
  • 主要功能点

    • 知识图谱管理:在项目根目录下存储并维护 memory.json,提供实体、关系、观测等数据结构的增删改查。
    • 上下文管理:维护当前任务状态、下一步计划、最近提交等上下文信息,支持并发安全写入。
    • 工具与资源注册:实现 n2n_add_entities、n2n_read_graph、n2n_update_context 等工具,并提供资源读取与导出能力(如导出 Markdown 的知识图谱)。
    • 数据一致性与安全性:对内存文件进行原子写入和跨进程锁定,确保多进程并发场景下数据的一致性与安全性。
    • MCP 服务器实现:通过标准的 MCP 服务端框架(McpServer)接入,使用 stdio 传输,支持工具执行、资源读取及图谱查询等标准操作。
    • 本地化与隔离:内存与知识图谱与代码仓库本地化存储,便于 Git 跟踪与团队协作。
  • 安装步骤

    • 安装前提:需安装 Node.js 20 及以上版本(代码中对环境有基本检查)。
    • 运行方式:通过 npx 直接启动服务器(示例用法在仓库自描述中给出)。
    • 依赖与构建:项目采用 TypeScript 编写,依赖 MCP SDK 及若干工具库,运行时会自动拉取镜像包并启动服务。
  • 服务器配置(供 MCP 客户端使用的字段说明)

    • 服务器名称(server name): n2n-memory
    • 启动命令(command): npx
    • 启动参数(args): ["-y", "@datafrog-io/n2n-memory"]
    • 说明:该配置用于 MCP 客户端启动时连接服务器,描述字段仅用于理解如何将客户端配置连接至该服务器,实际客户端代码可参考仓库中提供的 Quick Start 说明与 README。服务器端实现会自行暴露各类工具与资源,客户端仅需知道启动命令与服务器名称即可建立连接。
  • 基本使用方法

    • 启动服务器:在支持 MCP 客户端的环境中,通过前述配置命令启动服务器,服务器会通过标准输入输出(stdio)与客户端通信。
    • 初始化本地项目根:在首次使用该服务器前,确保项目目录具备可识别的根标记(如 .git、package.json、README.md 等),以便服务器能够正确识别并创建内存上下文。
    • 使用工具与资源:通过 MCP 客户端调用 n2n_add_entities、n2n_read_graph、n2n_update_context 等工具来修改/查询知识图谱与上下文信息。
    • 存储位置与导出:知识图谱默认存放在 [ProjectRoot]/.mcp/memory.json;可通过导出功能生成 Markdown 文档,方便团队协作与版本控制。
    • 退出与维护:在需要时通过相应的服务器关机流程释放资源锁;服务器设计包含跨进程锁与快照缓存,确保关机时能够干净释放。

信息

分类

AI与计算