项目简介
Titan Memory Server 是一个基于 Model Context Protocol (MCP) 构建的服务器,旨在为大型语言模型 (LLM) 提供持久化的神经网络记忆功能。它允许 LLM 在多次交互中保持上下文状态,并通过一系列工具提供记忆的管理、模型的训练和数据的访问能力,特别为 Cursor 等 MCP 客户端优化。
主要功能点
- 神经网络记忆架构:采用 Transformer 架构的记忆系统,能够学习和预测序列,并维护状态。
- 记忆管理:高效的张量运算和自动内存清理机制,确保服务器稳定运行。
- MCP 集成:完全兼容 MCP 协议,可与 Cursor 等 MCP 客户端无缝集成。
- 工具集:提供丰富的工具,包括模型初始化、前向传播、模型训练、记忆状态查询、记忆剪枝和模型持久化等。
- 多种传输协议支持:支持 Stdio 和 WebSocket 传输协议,方便不同场景下的部署和使用。
安装步骤
- 克隆仓库
git clone https://github.com/henryhawke/mcp-titan.git cd mcp-titan - 安装依赖
npm install - 构建项目
npm run build - 启动服务器
npm start
服务器配置
MCP 客户端需要配置以下信息以连接到 Titan Memory Server。以下是 'config.json' 或客户端配置中 'servers' 字段的示例配置,请根据实际情况调整 'command' 和 'args' 字段。
{ "serverName": "Titan Memory Server", "command": "npm", "args": ["start"] }
配置参数说明:
- 'serverName': 服务器名称,可以自定义,用于在客户端标识服务器。
- 'command': 启动服务器的命令,这里使用 'npm'。
- 'args': 启动命令的参数,'start' 是 'package.json' 中定义的启动脚本,用于运行 Titan Memory Server。
基本使用方法
-
启动 Titan Memory Server:按照安装步骤启动服务器。
-
配置 MCP 客户端:在 MCP 客户端(如 Cursor)中配置连接到 Titan Memory Server,指定服务器启动命令和参数。
-
调用工具:在 MCP 客户端中使用 'callTool' 函数调用 Titan Memory Server 提供的工具,例如:
- 'init_model': 初始化模型,根据需要配置模型参数。
- 'forward_pass': 执行前向传播,获取模型预测结果和记忆更新。
- 'train_step': 执行模型训练步骤,改进模型性能。
- 'get_memory_state': 获取当前记忆状态和统计信息,监控服务器运行状况。
- 'save_checkpoint': 保存当前的记忆状态到文件,实现记忆持久化。
- 'load_checkpoint': 从文件加载之前保存的记忆状态,恢复会话。
- 'prune_memory': 剪枝不相关的记忆条目,优化内存使用。
- 'reset_gradients': 重置梯度,用于从训练问题中恢复。
- 'manifold_step': 沿流形方向更新记忆,进行高级记忆操作。
- 'help': 获取工具的帮助信息。
具体工具的使用参数和返回值请参考仓库 README.md 中的 "Available Tools" 章节。
信息
分类
AI与计算