← 返回首页

"内存管理"标签的搜索结果

找到 8 个结果

Claude Copilot MCP 服务器集合

基于 Model Context Protocol (MCP) 的后端服务器集合,提供内存管理、语义检索、知识扩展与技能加载等能力,面向 Claude Copilot 等 LLM 客户端,通过标准化的 JSON-RPC 交互向客户端提供资源、工具、提示等上下文与功能服务。

OpenMemory MCP 服务端

基于 Model Context Protocol (MCP) 的后端实现,提供资源/工具/提示模板的管理与渲染,通过 JSON-RPC 与 LLM 客户端进行交互,支持 HTTP 与 STDIO 等传输模式的多种通信方式。

Cortex Memory MCP Server

基于模型上下文协议(MCP)的服务器实现,提供内存管理、工具注册/执行和提示模板的后端服务,通过 JSON-RPC 与 LLM 客户端进行通信,支持与各种后端组件协同工作,便于在代理代理的对话系统中提供上下文性与功能性支持。

Survey-ZI-UIN-New AI集成应用

Survey-ZI-UIN-New 是一个集成了文件系统和内存MCP服务器的全栈Web应用,为AI应用提供上下文服务。

Memory Usage Dashboard

Memory Usage Dashboard 是一个基于 Electron 构建的桌面应用,它实现了 MCP 服务器规范,提供本地内存数据存储、检索和管理的上下文服务。

copilotkit mem mcp exp

该项目是一个实验性的MCP服务器,集成了内存和Brave搜索工具,旨在通过Model Context Protocol增强AI IDE的上下文感知能力。

Optimized Memory

基于Model Context Protocol (MCP) 构建的知识图谱内存服务器,使用SQLite数据库持久化存储实体和关系,为LLM应用提供结构化知识记忆和检索能力。

Figma MCP Server with Chunking

此MCP服务器为LLM应用提供访问Figma设计文件的能力,支持大文件分块和分页加载,优化内存使用。