使用说明

项目简介

Titan Memory Server 是一个实现了 Model Context Protocol (MCP) 的后端服务器,它提供了一个可训练的神经记忆模型。该服务器受到 Google Research 的研究论文启发,旨在为语言模型 (LLM) 提供增强的记忆能力。通过 MCP 协议,Titan Memory Server 允许 LLM 客户端调用工具来初始化、训练和使用神经记忆模型,从而实现状态保持和序列学习等高级功能。

主要功能点

  • 神经记忆模型: 内置可配置的神经记忆模型,用于学习和预测向量序列。
  • 状态保持: 通过记忆向量维护模型状态,支持上下文学习和记忆。
  • 模型训练: 提供工具接口用于单步训练、序列训练和模型参数调优。
  • 模型持久化: 支持模型的保存和加载,方便模型管理和复用。
  • Surprise 指标: 计算 Surprise 指标用于评估新颖性检测。
  • MCP 工具集成: 通过标准 MCP 协议提供工具接口,易于与 MCP 客户端集成。

安装步骤

  1. 安装 Node.js 和 npm: 确保你的系统已安装 Node.js 和 npm 包管理器。
  2. 克隆仓库: 将 Titan Memory Server 仓库克隆到本地。
    git clone https://github.com/synthience/mcp-titan-cognitive-memory.git
    cd mcp-titan-cognitive-memory
  3. 安装依赖: 在项目根目录下运行以下命令安装项目依赖。
    npm install
  4. 构建项目: 运行以下命令构建项目,生成可执行的服务器代码。
    npm run build

服务器配置

为了让 MCP 客户端能够连接到 Titan Memory Server,需要提供以下服务器配置信息。这些信息通常配置在 MCP 客户端的服务器列表中。

{
  "servers": [
    {
      "name": "titan-memory-server",  // 服务器名称,可自定义
      "command": "node",             // 启动服务器的命令,这里使用 Node.js 运行
      "args": [                       // 启动命令的参数
        "build/index.js"          // 指向构建后的服务器入口文件
      ]
    }
  ]
}

基本使用方法

  1. 启动服务器: MCP 客户端根据上述配置启动 Titan Memory Server。服务器将在标准输入/输出 (stdio) 上监听 MCP 请求。

  2. 客户端调用工具: 使用 MCP 客户端,可以通过 'callTool' 等方法调用服务器提供的工具,例如:

    • 'init_model': 初始化记忆模型,可以配置 'inputDim' 和 'outputDim' 参数。
    • 'train_sequence': 使用向量序列训练模型。
    • 'forward_pass': 进行前向推理,获取模型的预测结果和记忆状态。
    • 'save_model': 保存模型到指定路径。
    • 'load_model': 从指定路径加载模型。
    • 'get_status': 获取模型当前配置信息。
    • 'train_step': 执行单步训练。

    具体工具参数和使用方法请参考仓库 'README.md' 文件中 "🛠️ Available MCP Tools" 和 "🌟 Example Usage" 部分。

注意: Titan Memory Server 通过标准输入/输出 (stdio) 与 MCP 客户端通信,确保客户端配置正确,并使用兼容 MCP 协议的客户端库进行交互。

信息

分类

AI与计算