MemGPT MCP Server 使用说明

项目简介

MemGPT MCP Server 是一个基于 Model Context Protocol (MCP) 构建的 LLM 服务端程序,旨在为 LLM 应用提供上下文记忆功能。它通过 JSON-RPC 协议与客户端通信,并使用本地 SQLite 数据库存储对话历史。该服务器支持多种 LLM 提供商,包括 OpenAI, Anthropic, OpenRouter 和 Ollama,允许用户灵活选择和切换不同的模型。

主要功能点

  • 对话记忆: 记录并管理与 LLM 的对话历史,支持检索和清除记忆。
  • 多 LLM 提供商支持: 支持 OpenAI, Anthropic, OpenRouter 和 Ollama 四种主流 LLM 服务,方便用户根据需求选择。
  • 模型切换: 允许用户在运行时切换不同提供商的不同模型,例如 OpenAI 的 gpt-4o, Anthropic 的 Claude 3 Opus, 或 Ollama 的本地模型。
  • 工具集成: 通过 MCP 协议提供标准化的工具接口,例如 'chat' (发送消息), 'get_memory' (获取记忆), 'clear_memory' (清除记忆), 'use_provider' (切换提供商), 'use_model' (切换模型)。
  • 配置持久化: 用户的提供商和模型选择会被保存,下次启动服务器时自动加载。

安装步骤

  1. 安装 Node.js 和 npm: 确保你的系统已安装 Node.js 和 npm (Node 包管理器)。
  2. 下载仓库代码: 从 GitHub 仓库 https://github.com/Vic563/Memgpt-MCP-Server 下载代码到本地。
  3. 安装依赖: 在仓库根目录下打开终端,运行以下命令安装项目依赖:
    npm install
  4. 构建项目: 运行以下命令构建 TypeScript 代码:
    npm run build
    构建成功后,会在 'build' 目录下生成可执行的 'index.js' 文件。

服务器配置

MCP 客户端 (例如 Claude Desktop) 需要配置 MCP 服务器的启动信息才能连接。以下是 MemGPT MCP Server 的配置示例,请根据你的实际情况修改:

{
  "mcpServers": {
    "letta-memgpt": {  //  服务器名称,客户端配置中引用此名称
      "command": "/path/to/memgpt-server/build/index.js",  //  MemGPT MCP Server 启动命令,指向构建后的 index.js 文件路径。请替换为你的实际路径
      "env": {  //  环境变量配置
        "OPENAI_API_KEY": "your-openai-key",  //  你的 OpenAI API 密钥,如果使用 OpenAI 模型,请配置
        "ANTHROPIC_API_KEY": "your-anthropic-key",  //  你的 Anthropic API 密钥,如果使用 Anthropic 模型,请配置
        "OPENROUTER_API_KEY": "your-openrouter-key"  //  你的 OpenRouter API 密钥,如果使用 OpenRouter 模型,请配置
      }
    }
  }
}

配置说明:

  • '"letta-memgpt"': 服务器的名称,可以自定义,客户端需要使用此名称来引用该服务器配置。
  • '"command"': 指向 MemGPT MCP Server 构建后生成的 'index.js' 文件的绝对路径。请务必替换 '/path/to/memgpt-server/build/index.js' 为你本地 'index.js' 文件的实际路径。
  • '"env"': 环境变量配置,用于设置访问不同 LLM 提供商 API 所需的密钥。
    • 'OPENAI_API_KEY', 'ANTHROPIC_API_KEY', 'OPENROUTER_API_KEY': 分别对应 OpenAI, Anthropic 和 OpenRouter 的 API 密钥。请根据你计划使用的 LLM 提供商配置相应的密钥。 如果不需要使用某个提供商,可以留空或删除对应的配置项。

Claude Desktop 配置位置:

  • MacOS: '~/Library/Application Support/Claude/claude_desktop_config.json'
  • Windows: '%APPDATA%/Claude/claude_desktop_config.json'

请将上述 JSON 配置添加到 'claude_desktop_config.json' 文件中的 'mcpServers' 字段下 (如果该字段不存在,请手动创建)。

基本使用方法

  1. 启动服务器: 在仓库根目录下打开终端,运行以下命令启动 MemGPT MCP Server:
    npm run build && node build/index.js
    或者,你也可以直接运行构建后的 'index.js' 文件:
    node /path/to/memgpt-server/build/index.js
    服务器成功启动后,会在终端输出 'Letta MemGPT MCP server running on stdio'。
  2. 在 MCP 客户端中使用: 在支持 MCP 协议的客户端 (例如 Claude Desktop) 中,选择配置好的 'letta-memgpt' 服务器。
  3. 使用工具与 LLM 交互: 通过客户端提供的界面或命令,可以调用 MemGPT MCP Server 提供的工具,例如:
    • 使用 '/chat <你的消息>' 向当前配置的 LLM 模型发送消息并获取回复。对话历史会被自动记录。
    • 使用 '/get_memory' 查看最近的对话历史记录。可以使用 '/get_memory limit: 20' 查看最近 20 条记录,或者 '/get_memory limit: null' 查看所有记录。
    • 使用 '/clear_memory' 清除所有对话历史记录。
    • 使用 '/use_provider <provider_name>' 切换 LLM 提供商,例如 '/use_provider openai', '/use_provider anthropic', '/use_provider ollama', '/use_provider openrouter'。
    • 使用 '/use_model <model_name>' 切换当前提供商的模型,例如 '/use_model gpt-4o' (OpenAI), '/use_model claude-3-opus' (Anthropic), '/use_model llama2' (Ollama), '/use_model openai/gpt-4' (OpenRouter)。

注意:

  • 首次使用或切换提供商后,可能需要等待一段时间让服务器完成初始化和模型加载。
  • Ollama 提供商需要在本地安装并运行 Ollama 服务,并确保模型已下载到本地。

信息

分类

AI与计算