项目简介
AIM-OS (AI-Integrated Memory & Operations System) 是为构建具备持久意识、可验证和不断进化的AI系统而设计的生产级基础设施。它解决了传统AI系统存在的记忆丧失、幻觉和黑盒操作等核心问题,通过集成12个核心系统(如上下文记忆核心CMC、超图神经索引HHNI、可验证智能框架VIF、AI驱动编排引擎APOE等)提供了完美的记忆、可验证的诚实和持续学习能力。它不是简单的AI代理链,而是强调“共同代理”(co-agency)——透明协作的智能。
主要功能点
- 持久记忆 (CMC):实现AI的完美记忆,能够存储和检索 bitemporal(双时间维度)数据,支持时间旅行式查询和完整审计。
- 智能上下文检索 (HHNI):采用物理引导的超图神经索引,高效检索上下文,优化Token使用并加速检索。
- 可验证智能 (VIF):为AI的每次输出提供加密的“见证信封”,包含来源、置信度等元数据,通过“κ-门控”机制自动阻止低置信度输出,有效防止幻觉。
- 知识合成与矛盾检测 (SEG):构建知识图谱,检测信息矛盾,并进行知识合成和溯源。
- AI驱动编排 (APOE):使用声明式语言ACL定义和执行复杂任务计划,支持8种专业角色,实现高效多步骤AI工作流。
- 自我意识与元认知 (CAS/TCS/IIS):使AI能够自我监控、分析认知过程、追踪交互时间线、并发展直觉和模式匹配能力。
- 持续学习与自我改进 (ARD/DOS/CAF):通过自主研发(“做梦”)、动态自启动和能力感知框架,实现AI的自我学习和进化。
- 跨模型协作: 支持智能模型选择、洞察提取和迁移、任务执行,以及跨模型操作的统一存储和追踪。
安装步骤
AIM-OS主要由Python组件构成,并依赖于一些外部数据库服务(如DGraph和Qdrant,用于HHNI),以及一个MCP服务器用于与客户端通信。
-
克隆仓库:
git clone https://github.com/sev-32/AIM-OS.git cd AIM-OS -
安装Python依赖:
pip install -r requirements.txt(请确保您的环境中已安装Python 3.10+。'requirements.txt' 文件在仓库根目录,但通常位于 'packages' 目录下,如果找不到,请在 'packages' 目录中寻找或手动安装必要的依赖如 'google-generativeai', 'requests', 'qdrant-client' 等。)
-
MCP服务器启动: AIM-OS的MCP服务器核心是 'run_mcp_cross_model.py' 脚本(虽然仓库未直接提供该文件内容,但从客户端和服务端测试代码可推断其存在和作用),它通常通过Python的标准输入/输出进行JSON-RPC通信。在启动前,您可能需要配置环境变量 'DGRAPH_URL' 和 'QDRANT_URL' 来指向您的DGraph和Qdrant实例(如果 HHNI 功能被激活),否则它可能会使用Mock客户端。
手动启动服务器 (示例):
# 假设您的DGraph和Qdrant服务已运行在默认端口 # export DGRAPH_URL="http://localhost:8080" # export QDRANT_URL="http://localhost:6333" python -u run_mcp_cross_model.py此命令会启动MCP服务器,等待来自MCP客户端的JSON-RPC请求。
服务器配置
MCP客户端需要配置MCP服务器的启动命令。AIM-OS的MCP服务器('run_mcp_cross_model.py')通过标准输入/输出进行JSON-RPC通信。
{ "server_name": "AIM-OS Cross-Model MCP Server", "command": "python", "args": ["-u", "run_mcp_cross_model.py"], "options": { "cwd": "/path/to/your/AIM-OS/repository" }, "env": { // 可选: 如果使用真实的DGraph/Qdrant服务,请配置其URL // "DGRAPH_URL": "http://localhost:8080", // "QDRANT_URL": "http://localhost:6333" // "GEMINI_API_KEY": "YOUR_GEMINI_API_KEY", // 如果需要Gemini模型 // "CEREBRAS_API_KEY": "YOUR_CEREBRAS_API_KEY" // 如果需要Cerebras模型 }, "description": "连接到AIM-OS核心AI能力和跨模型意识管理系统的MCP服务器。" }
- 'server_name':MCP服务器的友好名称。
- 'command':用于启动MCP服务器的可执行文件或脚本。这里是 'python'。
- 'args':传递给 'command' 的参数列表。'-u' 参数确保Python的输出不被缓冲,'run_mcp_cross_model.py' 是服务器的主入口脚本。
- 'options.cwd':指定服务器进程的工作目录。应设置为AIM-OS仓库的根目录。
- 'env':可选的环境变量,用于配置底层AI模型API密钥(如'GEMINI_API_KEY')或数据库连接(如'DGRAPH_URL','QDRANT_URL')。这些是运行特定功能所需的。
基本使用方法
一旦MCP服务器启动并被MCP客户端连接,客户端就可以通过JSON-RPC调用服务器暴露的工具。例如,使用 'cursor-addon' VS Code 插件作为客户端:
-
在VS Code中安装并启用'AIM-OS Cursor Add-on'。
-
配置插件:在VS Code设置中,找到'AIM-OS'相关的配置,确保 'mcpServerPath' 指向 'run_mcp_cross_model.py' 脚本的正确路径。
-
操作仪表盘:通过VS Code侧边栏的'AIM-OS Dashboard',您可以执行以下操作:
- 存储记忆:选择一段文本,右键或通过命令面板调用 'aimos.storeMemory',将其存储到AI的持久记忆中。
- 检索记忆:通过 'aimos.retrieveMemory' 命令查询相关记忆。
- 创建执行计划:使用 'aimos.createPlan' 启动一个多步骤的AI任务编排。
- 追踪置信度:通过 'aimos.trackConfidence' 记录AI对特定任务的置信度。
- 切换跨模型意识:通过仪表盘或命令切换AI是否启用跨模型协作功能。
这些操作会通过MCP客户端发送JSON-RPC请求给MCP服务器,由服务器利用其强大的AI基础设施完成任务。
信息
分类
AI与计算