项目简介
RAE (Reflective Agentic-memory Engine) 旨在赋予AI智能体类似人类的学习和记忆能力,使其能够在对话和任务中积累经验并持续改进。它提供一个多层级的记忆系统(包括短期、工作、长期和反射记忆),通过知识图谱(GraphRAG)增强上下文检索,并内置了反射引擎V2,使AI能自动提取洞察、学习成功与失败。RAE支持多租户、RBAC、成本控制和ISO/IEC 42001合规性功能,是一个为生产环境设计的AI记忆服务。
主要功能点
- 多层级记忆架构: 模拟人类记忆,分为感知、工作、长期和反射四个层次,实现深度和持久的上下文理解。
- 混合搜索 (GraphRAG): 结合向量相似度、知识图谱遍历和全文搜索,提供高度相关的上下文信息。
- 反射引擎V2: 自动从智能体交互中提取洞察、学习模式和策略,实现自我改进。
- 多模型LLM集成: 支持OpenAI、Anthropic、Google、Ollama等多种LLM提供商,并提供智能路由和成本优化。
- 企业级安全与合规: 内置JWT认证、RBAC、多租户隔离、审计日志,并遵循ISO/IEC 42001 AI管理体系标准。
- 成本控制: 实时追踪LLM API调用成本,并支持设置预算限制和智能缓存,降低运营费用。
- IDE集成 (MCP): 通过Model Context Protocol (MCP) 标准,与Claude Desktop、Cursor、VSCode等IDE集成,为开发者提供上下文服务。
安装步骤
RAE推荐使用Docker Compose进行本地开发部署,或使用Kubernetes进行生产级部署。
- 克隆仓库:
git clone https://github.com/dreamsoft-pro/RAE-agentic-memory cd RAE-agentic-memory - 配置环境变量: 复制示例配置文件 '.env.example' 为 '.env',并根据需要配置LLM API密钥(如'OPENAI_API_KEY', 'ANTHROPIC_API_KEY')或Ollama本地模型地址。
cp .env.example .env # 编辑 .env 文件,填入您的API密钥或本地Ollama配置 - 启动服务:
- RAE Lite (推荐初学者): 启动核心API、PostgreSQL、Qdrant和Redis。
docker-compose -f docker-compose.lite.yml up -d - 完整堆栈 (推荐生产环境): 启动所有服务,包括ML服务、Reranker和Dashboard。
./scripts/quickstart.sh
- RAE Lite (推荐初学者): 启动核心API、PostgreSQL、Qdrant和Redis。
- 初始化数据库: 首次启动后需要执行。
./scripts/init-database.sh
服务启动后,核心API通常可在 'http://localhost:8000' 访问。
服务器配置(针对MCP客户端)
MCP客户端需要配置连接RAE MCP服务器的JSON信息。请根据您的部署环境(例如,如果MCP服务器通过Docker Compose运行在本地,通常监听8000端口),配置'command'和'args'。
{ "server_name": "RAE Memory Engine MCP Server", "command": "python", "args": [ "-m", "rae_mcp_server" ], "env": { "RAE_API_URL": "http://localhost:8000", "RAE_API_KEY": "YOUR_RAE_API_KEY", "RAE_TENANT_ID": "YOUR_TENANT_ID", "RAE_PROJECT_ID": "YOUR_PROJECT_ID" }, "description": "连接到RAE反射式智能记忆引擎,为AI助手提供多层级记忆、知识图谱和代理执行能力。", "notes": [ "请将 'YOUR_RAE_API_KEY', 'YOUR_TENANT_ID' 和 'YOUR_PROJECT_ID' 替换为您的实际配置。", "RAE_API_URL 应指向您的RAE Memory API的地址,默认通常是 http://localhost:8000。", "rae_mcp_server 是RAE SDK中提供的MCP服务器启动模块,它会根据上述环境变量连接到RAE Memory API。", "确保您已安装RAE Python SDK (pip install rae-memory-sdk),以便 'rae_mcp_server' 命令可用。" ] }
基本使用方法
MCP客户端连接成功后,可以利用RAE MCP服务器提供的功能进行AI应用开发:
- 存储上下文信息: 告诉AI服务器重要的事实、偏好或事件。
- 例如,您可以在IDE中通过MCP客户端的相应命令,将当前代码文件的关键设计决策存储为“记忆”。
- 查询相关上下文: 请求AI服务器检索与当前任务相关的历史记忆。
- 例如,当您编写代码时,AI助手可以自动查询关于某个模块的历史讨论或错误修复经验,并将其作为上下文提供给您。
- 调用AI代理功能: 触发RAE的AI代理执行复杂任务,如代码审查、报告摘要或数据分析。
- 例如,您可以让AI代理分析项目的历史记忆,以提供关于“认证系统架构”的深入见解。
- 管理策略与合规: 利用RAE的ISO 42001合规性功能,请求高风险操作的审批、追踪决策溯源。
- 例如,在删除敏感数据前,AI助手可以通过MCP服务器发起一个审批请求。
信息
分类
AI与计算