项目简介

Membase MCP 服务器是基于 Model Context Protocol (MCP) 构建的应用后端,它使得大型语言模型 (LLM) 客户端能够无缝集成 Membase,一个为AI Agent设计的去中心化内存层。Membase 提供安全、持久的存储,用于保存对话历史、交互记录和知识,确保 Agent 的连续性、个性化和可追溯性。

通过这个 MCP 服务器,LLM Agent 可以轻松地将记忆(如消息、对话片段)上传到 Unibase 去中心化自治 (DA) 网络进行存储,并在需要时检索。

主要功能点

本服务器提供以下核心功能作为可供 LLM 调用的工具:

  • 获取对话 ID: 获取当前会话的唯一标识符。
  • 切换对话: 切换到指定的另一个历史会话。
  • 保存消息: 将当前消息或记忆保存到当前会话中。
  • 获取消息: 获取当前会话中的最近指定数量的消息。

安装步骤

请确保已安装 Python 环境和 'uv'(一个快速的 Python 包安装和执行工具,如果未安装,可以通过 'pip install uv' 安装)。

  1. 克隆仓库:
    git clone https://github.com/unibaseio/membase-mcp.git
  2. 进入项目目录:
    cd membase-mcp
  3. 启动服务器:
    uv run src/membase_mcp/server.py
    默认使用 'stdio' 传输协议,您可以添加 '--transport sse' 参数来使用 SSE。

服务器配置(针对LLM客户端)

MCP 服务器通常由支持 MCP 的 LLM 客户端(如 Claude, Windsurf, Cursor, Cline 等)配置并启动。您需要在您的 LLM 客户端的 MCP 服务器配置中添加 Membase MCP 服务器的信息。配置通常是一个 JSON 格式,您需要提供服务器的名称、启动命令、参数以及必要的环境变量。

  • 服务器名称: 例如 'membase'
  • 启动命令: 'uv'
  • 启动参数: 需要指定项目的根目录和要执行的脚本。例如,'--directory path/to/membase-mcp run src/membase_mcp/server.py'。请将 'path/to/membase-mcp' 替换为您实际的项目路径。
  • 环境变量: 必须设置以下环境变量:
    • 'MEMBASE_ACCOUNT': 您的 Membase 账户地址 (通常是一个区块链地址)。
    • 'MEMBASE_CONVERSATION_ID': (可选)默认会话 ID。如果未设置,服务器将生成一个随机 ID。
    • 'MEMBASE_ID': (可选)您的实例 ID,可以是任何字符串。如果未设置,服务器将生成一个随机 ID。

基本使用方法

当服务器在后台由您的 LLM 客户端成功启动并连接后,LLM Agent 就可以在对话中通过调用暴露的工具函数来使用 Membase 的功能。

  • 获取当前会话 ID: 在对话中提示 LLM 调用 'get_conversation_id' 工具。
  • 切换会话: 提示 LLM 调用 'switch_conversation' 工具,并提供 'conversation_id' 参数。
  • 保存消息: LLM 在处理完用户的消息或生成回复后,可以调用 'save_message' 工具,将消息内容('content')和角色('msg_type',例如 '"user"' 或 '"assistant"')保存到当前会话。
  • 获取最近消息: 提示 LLM 调用 'get_messages' 工具,并提供 'recent_n' 参数指定要获取的最近消息数量。

这些工具调用通常由支持工具使用的 LLM 模型自动或半自动完成,用户只需在对话中表达意图即可。

信息

分类

AI与计算