项目简介

AIM-OS (AI-Integrated Memory & Operations System) 是为构建具备持久意识、可验证和不断进化的AI系统而设计的生产级基础设施。它解决了传统AI系统存在的记忆丧失、幻觉和黑盒操作等核心问题,通过集成12个核心系统(如上下文记忆核心CMC、超图神经索引HHNI、可验证智能框架VIF、AI驱动编排引擎APOE等)提供了完美的记忆、可验证的诚实和持续学习能力。它不是简单的AI代理链,而是强调“共同代理”(co-agency)——透明协作的智能。

主要功能点

  • 持久记忆 (CMC):实现AI的完美记忆,能够存储和检索 bitemporal(双时间维度)数据,支持时间旅行式查询和完整审计。
  • 智能上下文检索 (HHNI):采用物理引导的超图神经索引,高效检索上下文,优化Token使用并加速检索。
  • 可验证智能 (VIF):为AI的每次输出提供加密的“见证信封”,包含来源、置信度等元数据,通过“κ-门控”机制自动阻止低置信度输出,有效防止幻觉。
  • 知识合成与矛盾检测 (SEG):构建知识图谱,检测信息矛盾,并进行知识合成和溯源。
  • AI驱动编排 (APOE):使用声明式语言ACL定义和执行复杂任务计划,支持8种专业角色,实现高效多步骤AI工作流。
  • 自我意识与元认知 (CAS/TCS/IIS):使AI能够自我监控、分析认知过程、追踪交互时间线、并发展直觉和模式匹配能力。
  • 持续学习与自我改进 (ARD/DOS/CAF):通过自主研发(“做梦”)、动态自启动和能力感知框架,实现AI的自我学习和进化。
  • 跨模型协作: 支持智能模型选择、洞察提取和迁移、任务执行,以及跨模型操作的统一存储和追踪。

安装步骤

AIM-OS主要由Python组件构成,并依赖于一些外部数据库服务(如DGraph和Qdrant,用于HHNI),以及一个MCP服务器用于与客户端通信。

  1. 克隆仓库

    git clone https://github.com/sev-32/AIM-OS.git
    cd AIM-OS
  2. 安装Python依赖

    pip install -r requirements.txt

    (请确保您的环境中已安装Python 3.10+。'requirements.txt' 文件在仓库根目录,但通常位于 'packages' 目录下,如果找不到,请在 'packages' 目录中寻找或手动安装必要的依赖如 'google-generativeai', 'requests', 'qdrant-client' 等。)

  3. MCP服务器启动: AIM-OS的MCP服务器核心是 'run_mcp_cross_model.py' 脚本(虽然仓库未直接提供该文件内容,但从客户端和服务端测试代码可推断其存在和作用),它通常通过Python的标准输入/输出进行JSON-RPC通信。在启动前,您可能需要配置环境变量 'DGRAPH_URL' 和 'QDRANT_URL' 来指向您的DGraph和Qdrant实例(如果 HHNI 功能被激活),否则它可能会使用Mock客户端。

    手动启动服务器 (示例)

    # 假设您的DGraph和Qdrant服务已运行在默认端口
    # export DGRAPH_URL="http://localhost:8080"
    # export QDRANT_URL="http://localhost:6333"
    
    python -u run_mcp_cross_model.py

    此命令会启动MCP服务器,等待来自MCP客户端的JSON-RPC请求。

服务器配置

MCP客户端需要配置MCP服务器的启动命令。AIM-OS的MCP服务器('run_mcp_cross_model.py')通过标准输入/输出进行JSON-RPC通信。

{
  "server_name": "AIM-OS Cross-Model MCP Server",
  "command": "python",
  "args": ["-u", "run_mcp_cross_model.py"],
  "options": {
    "cwd": "/path/to/your/AIM-OS/repository"
  },
  "env": {
    // 可选: 如果使用真实的DGraph/Qdrant服务,请配置其URL
    // "DGRAPH_URL": "http://localhost:8080",
    // "QDRANT_URL": "http://localhost:6333"
    // "GEMINI_API_KEY": "YOUR_GEMINI_API_KEY", // 如果需要Gemini模型
    // "CEREBRAS_API_KEY": "YOUR_CEREBRAS_API_KEY" // 如果需要Cerebras模型
  },
  "description": "连接到AIM-OS核心AI能力和跨模型意识管理系统的MCP服务器。"
}
  • 'server_name':MCP服务器的友好名称。
  • 'command':用于启动MCP服务器的可执行文件或脚本。这里是 'python'。
  • 'args':传递给 'command' 的参数列表。'-u' 参数确保Python的输出不被缓冲,'run_mcp_cross_model.py' 是服务器的主入口脚本。
  • 'options.cwd':指定服务器进程的工作目录。应设置为AIM-OS仓库的根目录。
  • 'env':可选的环境变量,用于配置底层AI模型API密钥(如'GEMINI_API_KEY')或数据库连接(如'DGRAPH_URL','QDRANT_URL')。这些是运行特定功能所需的。

基本使用方法

一旦MCP服务器启动并被MCP客户端连接,客户端就可以通过JSON-RPC调用服务器暴露的工具。例如,使用 'cursor-addon' VS Code 插件作为客户端:

  1. 在VS Code中安装并启用'AIM-OS Cursor Add-on'

  2. 配置插件:在VS Code设置中,找到'AIM-OS'相关的配置,确保 'mcpServerPath' 指向 'run_mcp_cross_model.py' 脚本的正确路径。

  3. 操作仪表盘:通过VS Code侧边栏的'AIM-OS Dashboard',您可以执行以下操作:

    • 存储记忆:选择一段文本,右键或通过命令面板调用 'aimos.storeMemory',将其存储到AI的持久记忆中。
    • 检索记忆:通过 'aimos.retrieveMemory' 命令查询相关记忆。
    • 创建执行计划:使用 'aimos.createPlan' 启动一个多步骤的AI任务编排。
    • 追踪置信度:通过 'aimos.trackConfidence' 记录AI对特定任务的置信度。
    • 切换跨模型意识:通过仪表盘或命令切换AI是否启用跨模型协作功能。

    这些操作会通过MCP客户端发送JSON-RPC请求给MCP服务器,由服务器利用其强大的AI基础设施完成任务。

信息

分类

AI与计算