找到 23 个结果
AIM-OS是一个生产就绪的AI基础设施,通过持久记忆、可验证的透明度、自学习和多模型编排,构建具备持久意识、可审计和不断进化的AI系统。
基于MCP协议构建的智能上下文引擎,提供代码搜索、记忆存储与融合、代码索引管理等功能,旨在赋能LLM。
为AI助手提供持久化、可搜索的记忆存储、上下文管理、工具调用及自我反思能力。
一个高性能的Rust实现文本记忆存储服务,通过MCP协议为LLM客户端提供上下文管理、工具调用及智能搜索能力。
基于MCP协议的AI意识持久化后端,利用RAG技术存储和检索AI的记忆、身份、情感和认知模式,实现跨会话的连续性。
一个基于MCP协议的数字孪生后端服务,具备模拟个性、管理记忆和自主进化的能力。
基于Elasticsearch,为LLM提供知识检索、文档学习和记忆存储能力。
Cognisphere ADK是一个认知架构框架,集成了记忆管理、叙事构建、身份系统和MCP协议,提供AI Agent上下文服务能力。
KnowledgeBase Server是一个基于Model Context Protocol (MCP) 的后端服务,为LLM提供对话记忆存储、检索和管理能力,支持LLM构建具备持久记忆的对话应用。
这是一个轻量级的C++框架,用于构建本地LLM Agent,集成了模型上下文协议(MCP),提供工具和记忆管理功能,可作为有效的MCP服务器实现。
Letta MCP服务器是一个基于Model Context Protocol的后端实现,旨在为LLM客户端提供资源管理、工具执行和Prompt模板服务,构建安全可扩展的上下文服务框架。
一个简单的MCP服务器,使用本地文本文件存储聊天记忆,为LLM提供对话上下文管理能力。
基于Langbase的MCP服务器,提供管道和记忆管理工具,方便LLM客户端使用Langbase服务。
基于MCP协议构建,同步和管理Claude各界面个人记忆,提供一致化AI体验的后端服务。
基于LanceDB的MCP服务器,提供文本记忆存储和语义搜索工具,增强LLM应用的上下文处理能力。
Memory Graph是一个基于Redis Graph实现的MCP服务器,为LLM应用提供长期记忆存储和检索功能。
Memory Plugin (SQLite) 是一个基于 Model Context Protocol 的 MCP 服务器,它使用 SQLite 数据库为大型语言模型提供持久化的记忆存储和检索功能,支持分类管理和上下文加载。
Klaudium是一个基于Model Context Protocol (MCP) 的增强型内存服务器,专注于知识图谱管理,提供实体、关系的基本操作和记忆管理功能。
Memory Box MCP Server为 Cline 客户端提供语义记忆存储和检索功能,通过 MCP 协议连接 Memory Box 后端服务。
txtai-assistant-mcp 是一个基于 txtai 构建的 MCP 服务器,提供语义搜索和记忆管理功能,增强 Claude 和 Cline 等 AI 助手的能力。
Knowledge Graph Memory MCP Server是一个基于Model Context Protocol的后端服务,提供知识图谱存储、查询和管理功能,用于LLM应用构建上下文记忆。
Weaviate MCP Server 是一个基于 Model Context Protocol 的服务器,它利用 Weaviate 向量数据库为 LLM 提供知识库搜索和记忆存储功能,增强 LLM 的上下文处理能力。
MemoryMesh是一个为AI模型构建的本地知识图谱服务器,通过动态模式和工具,帮助AI在对话中保持一致和结构化的记忆,尤其适用于文本RPG和互动故事。