项目简介

Titan Memory Server 是一个基于 Model Context Protocol (MCP) 构建的服务器,旨在为大型语言模型 (LLM) 提供持久化的神经网络记忆功能。它允许 LLM 在多次交互中保持上下文状态,并通过一系列工具提供记忆的管理、模型的训练和数据的访问能力,特别为 Cursor 等 MCP 客户端优化。

主要功能点

  • 神经网络记忆架构:采用 Transformer 架构的记忆系统,能够学习和预测序列,并维护状态。
  • 记忆管理:高效的张量运算和自动内存清理机制,确保服务器稳定运行。
  • MCP 集成:完全兼容 MCP 协议,可与 Cursor 等 MCP 客户端无缝集成。
  • 工具集:提供丰富的工具,包括模型初始化、前向传播、模型训练、记忆状态查询、记忆剪枝和模型持久化等。
  • 多种传输协议支持:支持 Stdio 和 WebSocket 传输协议,方便不同场景下的部署和使用。

安装步骤

  1. 克隆仓库
    git clone https://github.com/henryhawke/mcp-titan.git
    cd mcp-titan
  2. 安装依赖
    npm install
  3. 构建项目
    npm run build
  4. 启动服务器
    npm start

服务器配置

MCP 客户端需要配置以下信息以连接到 Titan Memory Server。以下是 'config.json' 或客户端配置中 'servers' 字段的示例配置,请根据实际情况调整 'command' 和 'args' 字段。

{
  "serverName": "Titan Memory Server",
  "command": "npm",
  "args": ["start"]
}

配置参数说明:

  • 'serverName': 服务器名称,可以自定义,用于在客户端标识服务器。
  • 'command': 启动服务器的命令,这里使用 'npm'。
  • 'args': 启动命令的参数,'start' 是 'package.json' 中定义的启动脚本,用于运行 Titan Memory Server。

基本使用方法

  1. 启动 Titan Memory Server:按照安装步骤启动服务器。

  2. 配置 MCP 客户端:在 MCP 客户端(如 Cursor)中配置连接到 Titan Memory Server,指定服务器启动命令和参数。

  3. 调用工具:在 MCP 客户端中使用 'callTool' 函数调用 Titan Memory Server 提供的工具,例如:

    • 'init_model': 初始化模型,根据需要配置模型参数。
    • 'forward_pass': 执行前向传播,获取模型预测结果和记忆更新。
    • 'train_step': 执行模型训练步骤,改进模型性能。
    • 'get_memory_state': 获取当前记忆状态和统计信息,监控服务器运行状况。
    • 'save_checkpoint': 保存当前的记忆状态到文件,实现记忆持久化。
    • 'load_checkpoint': 从文件加载之前保存的记忆状态,恢复会话。
    • 'prune_memory': 剪枝不相关的记忆条目,优化内存使用。
    • 'reset_gradients': 重置梯度,用于从训练问题中恢复。
    • 'manifold_step': 沿流形方向更新记忆,进行高级记忆操作。
    • 'help': 获取工具的帮助信息。

    具体工具的使用参数和返回值请参考仓库 README.md 中的 "Available Tools" 章节。

信息

分类

AI与计算