使用说明

项目简介

本项目 '内存文件上下文服务器' 是一个基于 Model Context Protocol (MCP) 的后端实现,旨在帮助大型语言模型 (LLM) 管理对话过程中的记忆。它将记忆存储在本地文本文件中,并提供工具让 LLM 客户端(如 Claude)可以添加、搜索、删除和列出这些记忆,从而增强 LLM 的上下文理解和对话连贯性。

主要功能点

  • 记忆存储与管理: 将对话记忆以行文本的形式存储在本地文件中。
  • 添加记忆: 允许 LLM 通过 'append_memories' 工具向记忆文件追加新的记忆条目。
  • 搜索记忆: 允许 LLM 通过 'search_memory' 工具查询包含特定关键词的记忆条目。
  • 删除记忆: 允许 LLM 通过 'delete_memory' 工具删除包含特定关键词的记忆条目。
  • 列出所有记忆: 允许 LLM 通过 'list_memory' 工具获取所有记忆条目的列表。

安装步骤

  1. 克隆仓库: 首先,使用 Git 克隆该仓库到本地:
    git clone https://github.com/MCP-Mirror/g0t4_mcp-server-memory-file.git
    cd g0t4_mcp-server-memory-file
  2. 安装依赖: 确保已安装 Node.js 和 npm,然后在项目目录下运行以下命令安装项目依赖:
    npm install

服务器配置

MCP 客户端(如 Claude)需要配置以下 JSON 信息来连接到 '内存文件上下文服务器'。请根据实际情况填写 'server name',并将以下配置添加到 MCP 客户端的服务器配置中:

{
  "server name": "memory-file-server",  //  自定义服务器名称,用于在客户端中标识
  "command": "node",                   //  启动服务器的命令,这里使用 node.js 运行时
  "args": [                           //  传递给命令的参数
    "src/index.ts"                    //  服务器入口文件路径
  ]
  // "args": ["src/index.ts", "--verbose"] // (可选) 开启verbose日志,用于调试,可以移除
}

参数说明:

  • 'server name': 服务器的名称,可以自定义,用于在 MCP 客户端中识别和选择该服务器。
  • 'command': 运行服务器程序的可执行命令,这里是 'node',假设您的环境中 node 已添加到 PATH 环境变量。
  • 'args': 传递给 'command' 的参数数组。
    • '"src/index.ts"': 指定服务器的入口文件路径。
    • '" --verbose"': (可选) 如果需要更详细的日志输出,可以添加 '--verbose' 参数。

基本使用方法

  1. 启动服务器: 在克隆的项目根目录下,无需额外操作,MCP 客户端启动并连接配置好的服务器后,服务器将自动运行。
  2. 客户端调用工具: 在 MCP 客户端(如 Claude)中,您可以通过自然语言指示 LLM 使用以下工具来管理记忆:
    • 'append_memories(text: string)': 添加新的记忆。例如,您可以指示 Claude “添加记忆 ‘我喜欢喝咖啡’”。
    • 'search_memory(query: string)': 搜索包含关键词的记忆。例如,您可以指示 Claude “搜索关于咖啡的记忆”。
    • 'delete_memory(query: string)': 删除包含关键词的记忆。例如,您可以指示 Claude “删除关于旧项目 ‘项目X’ 的记忆”。
    • 'list_memory()': 列出所有记忆。您可以指示 Claude “列出我的所有记忆”。

注意: LLM 如何以及何时使用这些工具取决于其自身的训练和提示工程。您可能需要在系统提示或对话示例中引导 LLM 如何有效地利用这些记忆管理工具。

信息

分类

数据库与文件