← 返回首页

"内存管理"标签的搜索结果

找到 12 个结果

MeMesh

基于 Model Context Protocol (MCP) 的后端服务器(MeMesh,原 Claude Code Buddy),为大语言模型客户端提供记忆化上下文、资源管理、工具执行与可定制的 Prompt 模板渲染,支持 JSON-RPC 通信、会话管理以及多传输协议(如 Stdio、SSE、WebSocket)。

Octobrain MCP 服务器

基于 Model Context Protocol (MCP) 的后端实现,提供内存资源管理、工具执行以及提示模板渲染等能力,通过 JSON-RPC 在标准输入输出(STDIO)与 LLM 客户端进行通信,支持多种内部传输与会话管理,用于向 LLM 客户端提供可访问的上下文信息与功能。

LightMem MCP 服务器

LightMem 的 MCP 服务端实现,使用 Model Context Protocol 提供资源、工具与提示模板的注册与执行,以 JSON-RPC 形式与 LLM 客户端交互。

Artemis City MCP 后端

基于 Model Context Protocol (MCP) 的后端服务,实现对 Obsidian 记忆库的读写、资源管理与工具执行的统一接口,提供 JSON-RPC 风格的请求/响应,包含认证、日志、路由与可扩展的插件架构,支持与多种前端/LLM 客户端协作。

Claude Copilot MCP 服务器集合

基于 Model Context Protocol (MCP) 的后端服务器集合,提供内存管理、语义检索、知识扩展与技能加载等能力,面向 Claude Copilot 等 LLM 客户端,通过标准化的 JSON-RPC 交互向客户端提供资源、工具、提示等上下文与功能服务。

OpenMemory MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供资源/工具/提示模板的管理与渲染,通过 JSON-RPC 与 LLM 客户端进行交互,支持 HTTP 与 STDIO 等传输模式的多种通信方式。

Cortex Memory MCP Server

基于模型上下文协议(MCP)的服务器实现,提供内存管理、工具注册/执行和提示模板的后端服务,通过 JSON-RPC 与 LLM 客户端进行通信,支持与各种后端组件协同工作,便于在代理代理的对话系统中提供上下文性与功能性支持。

Survey-ZI-UIN-New AI集成应用

Survey-ZI-UIN-New 是一个集成了文件系统和内存MCP服务器的全栈Web应用,为AI应用提供上下文服务。

Memory Usage Dashboard

Memory Usage Dashboard 是一个基于 Electron 构建的桌面应用,它实现了 MCP 服务器规范,提供本地内存数据存储、检索和管理的上下文服务。

copilotkit mem mcp exp

该项目是一个实验性的MCP服务器,集成了内存和Brave搜索工具,旨在通过Model Context Protocol增强AI IDE的上下文感知能力。

Optimized Memory

基于Model Context Protocol (MCP) 构建的知识图谱内存服务器,使用SQLite数据库持久化存储实体和关系,为LLM应用提供结构化知识记忆和检索能力。

Figma MCP Server with Chunking

此MCP服务器为LLM应用提供访问Figma设计文件的能力,支持大文件分块和分页加载,优化内存使用。