项目简介
CORE 旨在成为您的个人AI应用的统一记忆层,通过 Model Context Protocol (MCP) 将您的历史对话、偏好和项目背景无缝集成到各种AI工具和LLM中。它构建了一个时间知识图谱,能够记住您的所有信息,并在您需要时提供上下文,从而消除上下文丢失、重复解释项目和遗忘决策的问题。
主要功能点
- 统一记忆管理: 将您在不同AI工具(如ChatGPT、Claude、Cursor)中的对话和决策整合到一个持久化记忆层中,实现跨工具的无缝上下文。
- 时间知识图谱: 不仅仅是数据存储,CORE 追踪信息的时间、来源和演变,以丰富的关系和溯源记录来构建知识图谱。
- 智能信息摄取与召回: 通过高级的规范化、实体提取、冲突解决和图谱整合流程来捕获上下文,并通过多角度搜索、重排序和过滤来智能召回记忆。
- MCP工具集成: 提供一系列LLM可调用的工具,如'memory_search'(搜索记忆)、'memory_ingest'(存储对话)、'memory_about_user'(获取用户画像)等,以及与外部应用(如GitHub、Slack、Linear)的集成功能。
- 多平台支持: 可与Cursor、VS Code、Claude Code、Gemini CLI、Copilot CLI等多种CLI、IDE、桌面应用和Agent集成。
- 自托管与云服务: 提供Docker Compose自托管选项,确保数据控制权,同时也有便捷的云服务版本。
安装步骤
自托管
- 准备环境: 确保已安装 Docker (20.10.0+) 和 Docker Compose (2.20.0+)。
- 获取代码: 'git clone https://github.com/RedPlanetHQ/core.git && cd core'
- 配置环境变量: 在 'core/.env' 文件中设置 'OPENAI_API_KEY=your_openai_api_key'。
- 启动服务: 运行 'docker-compose up -d' 即可启动 CORE 服务器。
云服务
访问 core.heysol.ai 注册并使用 CORE 云服务,无需本地安装。
服务器配置
CORE MCP 服务器通过 HTTP/S 协议暴露接口。MCP 客户端通过 JSON-RPC 协议与服务器通信。MCP 客户端连接 CORE 服务器时,通常需要配置服务器的URL和认证信息。以下是一个通用的配置信息:
- 服务器名称: 'core-memory' (或您自定义的名称)
- URL: 'https://core.heysol.ai/api/v1/mcp' (如果是自托管,请替换为您的服务器地址,例如 'http://localhost:3000/api/v1/mcp')
- 类型: 'http' 或 'streamable-http' (取决于客户端支持和您部署的类型)
- 认证: 如果需要,通常是 'Bearer YOUR_API_KEY' (API 密钥请在 CORE 仪表板生成)
配置信息通常在MCP客户端的设置或集成界面进行设置,请根据客户端的指示进行填写,无需手动编写代码。
基本使用方法
- 连接工具: 将 CORE 连接到您偏好的 AI 工具(如 Cursor、Claude)。
- 存储记忆: 在您的 AI 工具中使用如 "add to core memory" 这样的指令,或通过浏览器扩展自动捕获对话和网页内容,将信息存储到 CORE 中。
- 例如在 Cursor 中输入: 'Set up authentication for my API service using JWT tokens. Remember my preference for TypeScript strict mode. Add to core memory'
- 召回记忆: 在您的 AI 工具中通过 "search core memory" 指令来检索相关上下文。
- 例如在 Cursor 中输入: 'What were the architecture decisions we made for the payment service last week?. Search core memory'
- 调用工具: LLM 客户端可以自动识别并调用 CORE 提供的工具,例如 'memory_search' 来获取上下文,或 'memory_ingest' 来存储新信息。
信息
分类
开发者工具