项目简介

RAE (Reflective Agentic-memory Engine) 旨在赋予AI智能体类似人类的学习和记忆能力,使其能够在对话和任务中积累经验并持续改进。它提供一个多层级的记忆系统(包括短期、工作、长期和反射记忆),通过知识图谱(GraphRAG)增强上下文检索,并内置了反射引擎V2,使AI能自动提取洞察、学习成功与失败。RAE支持多租户、RBAC、成本控制和ISO/IEC 42001合规性功能,是一个为生产环境设计的AI记忆服务。

主要功能点

  • 多层级记忆架构: 模拟人类记忆,分为感知、工作、长期和反射四个层次,实现深度和持久的上下文理解。
  • 混合搜索 (GraphRAG): 结合向量相似度、知识图谱遍历和全文搜索,提供高度相关的上下文信息。
  • 反射引擎V2: 自动从智能体交互中提取洞察、学习模式和策略,实现自我改进。
  • 多模型LLM集成: 支持OpenAI、Anthropic、Google、Ollama等多种LLM提供商,并提供智能路由和成本优化。
  • 企业级安全与合规: 内置JWT认证、RBAC、多租户隔离、审计日志,并遵循ISO/IEC 42001 AI管理体系标准。
  • 成本控制: 实时追踪LLM API调用成本,并支持设置预算限制和智能缓存,降低运营费用。
  • IDE集成 (MCP): 通过Model Context Protocol (MCP) 标准,与Claude Desktop、Cursor、VSCode等IDE集成,为开发者提供上下文服务。

安装步骤

RAE推荐使用Docker Compose进行本地开发部署,或使用Kubernetes进行生产级部署。

  1. 克隆仓库:
    git clone https://github.com/dreamsoft-pro/RAE-agentic-memory
    cd RAE-agentic-memory
  2. 配置环境变量: 复制示例配置文件 '.env.example' 为 '.env',并根据需要配置LLM API密钥(如'OPENAI_API_KEY', 'ANTHROPIC_API_KEY')或Ollama本地模型地址。
    cp .env.example .env
    # 编辑 .env 文件,填入您的API密钥或本地Ollama配置
  3. 启动服务:
    • RAE Lite (推荐初学者): 启动核心API、PostgreSQL、Qdrant和Redis。
      docker-compose -f docker-compose.lite.yml up -d
    • 完整堆栈 (推荐生产环境): 启动所有服务,包括ML服务、Reranker和Dashboard。
      ./scripts/quickstart.sh
  4. 初始化数据库: 首次启动后需要执行。
    ./scripts/init-database.sh

服务启动后,核心API通常可在 'http://localhost:8000' 访问。

服务器配置(针对MCP客户端)

MCP客户端需要配置连接RAE MCP服务器的JSON信息。请根据您的部署环境(例如,如果MCP服务器通过Docker Compose运行在本地,通常监听8000端口),配置'command'和'args'。

{
  "server_name": "RAE Memory Engine MCP Server",
  "command": "python",
  "args": [
    "-m",
    "rae_mcp_server"
  ],
  "env": {
    "RAE_API_URL": "http://localhost:8000",
    "RAE_API_KEY": "YOUR_RAE_API_KEY",
    "RAE_TENANT_ID": "YOUR_TENANT_ID",
    "RAE_PROJECT_ID": "YOUR_PROJECT_ID"
  },
  "description": "连接到RAE反射式智能记忆引擎,为AI助手提供多层级记忆、知识图谱和代理执行能力。",
  "notes": [
    "请将 'YOUR_RAE_API_KEY', 'YOUR_TENANT_ID' 和 'YOUR_PROJECT_ID' 替换为您的实际配置。",
    "RAE_API_URL 应指向您的RAE Memory API的地址,默认通常是 http://localhost:8000。",
    "rae_mcp_server 是RAE SDK中提供的MCP服务器启动模块,它会根据上述环境变量连接到RAE Memory API。",
    "确保您已安装RAE Python SDK (pip install rae-memory-sdk),以便 'rae_mcp_server' 命令可用。"
  ]
}

基本使用方法

MCP客户端连接成功后,可以利用RAE MCP服务器提供的功能进行AI应用开发:

  1. 存储上下文信息: 告诉AI服务器重要的事实、偏好或事件。
    • 例如,您可以在IDE中通过MCP客户端的相应命令,将当前代码文件的关键设计决策存储为“记忆”。
  2. 查询相关上下文: 请求AI服务器检索与当前任务相关的历史记忆。
    • 例如,当您编写代码时,AI助手可以自动查询关于某个模块的历史讨论或错误修复经验,并将其作为上下文提供给您。
  3. 调用AI代理功能: 触发RAE的AI代理执行复杂任务,如代码审查、报告摘要或数据分析。
    • 例如,您可以让AI代理分析项目的历史记忆,以提供关于“认证系统架构”的深入见解。
  4. 管理策略与合规: 利用RAE的ISO 42001合规性功能,请求高风险操作的审批、追踪决策溯源。
    • 例如,在删除敏感数据前,AI助手可以通过MCP服务器发起一个审批请求。

信息

分类

AI与计算