Membase MCP 服务器
项目简介
Membase MCP 服务器是基于 Model Context Protocol (MCP) 构建的应用后端,它使得大型语言模型 (LLM) 客户端能够无缝集成 Membase,一个为AI Agent设计的去中心化内存层。Membase 提供安全、持久的存储,用于保存对话历史、交互记录和知识,确保 Agent 的连续性、个性化和可追溯性。
通过这个 MCP 服务器,LLM Agent 可以轻松地将记忆(如消息、对话片段)上传到 Unibase 去中心化自治 (DA) 网络进行存储,并在需要时检索。
主要功能点
本服务器提供以下核心功能作为可供 LLM 调用的工具:
- 获取对话 ID: 获取当前会话的唯一标识符。
- 切换对话: 切换到指定的另一个历史会话。
- 保存消息: 将当前消息或记忆保存到当前会话中。
- 获取消息: 获取当前会话中的最近指定数量的消息。
安装步骤
请确保已安装 Python 环境和 'uv'(一个快速的 Python 包安装和执行工具,如果未安装,可以通过 'pip install uv' 安装)。
- 克隆仓库:
git clone https://github.com/unibaseio/membase-mcp.git - 进入项目目录:
cd membase-mcp - 启动服务器:
默认使用 'stdio' 传输协议,您可以添加 '--transport sse' 参数来使用 SSE。uv run src/membase_mcp/server.py
服务器配置(针对LLM客户端)
MCP 服务器通常由支持 MCP 的 LLM 客户端(如 Claude, Windsurf, Cursor, Cline 等)配置并启动。您需要在您的 LLM 客户端的 MCP 服务器配置中添加 Membase MCP 服务器的信息。配置通常是一个 JSON 格式,您需要提供服务器的名称、启动命令、参数以及必要的环境变量。
- 服务器名称: 例如 'membase'
- 启动命令: 'uv'
- 启动参数: 需要指定项目的根目录和要执行的脚本。例如,'--directory path/to/membase-mcp run src/membase_mcp/server.py'。请将 'path/to/membase-mcp' 替换为您实际的项目路径。
- 环境变量: 必须设置以下环境变量:
- 'MEMBASE_ACCOUNT': 您的 Membase 账户地址 (通常是一个区块链地址)。
- 'MEMBASE_CONVERSATION_ID': (可选)默认会话 ID。如果未设置,服务器将生成一个随机 ID。
- 'MEMBASE_ID': (可选)您的实例 ID,可以是任何字符串。如果未设置,服务器将生成一个随机 ID。
基本使用方法
当服务器在后台由您的 LLM 客户端成功启动并连接后,LLM Agent 就可以在对话中通过调用暴露的工具函数来使用 Membase 的功能。
- 获取当前会话 ID: 在对话中提示 LLM 调用 'get_conversation_id' 工具。
- 切换会话: 提示 LLM 调用 'switch_conversation' 工具,并提供 'conversation_id' 参数。
- 保存消息: LLM 在处理完用户的消息或生成回复后,可以调用 'save_message' 工具,将消息内容('content')和角色('msg_type',例如 '"user"' 或 '"assistant"')保存到当前会话。
- 获取最近消息: 提示 LLM 调用 'get_messages' 工具,并提供 'recent_n' 参数指定要获取的最近消息数量。
这些工具调用通常由支持工具使用的 LLM 模型自动或半自动完成,用户只需在对话中表达意图即可。