MemGPT MCP Server 使用说明
项目简介
MemGPT MCP Server 是一个基于 Model Context Protocol (MCP) 构建的 LLM 服务端程序,旨在为 LLM 应用提供上下文记忆功能。它通过 JSON-RPC 协议与客户端通信,并使用本地 SQLite 数据库存储对话历史。该服务器支持多种 LLM 提供商,包括 OpenAI, Anthropic, OpenRouter 和 Ollama,允许用户灵活选择和切换不同的模型。
主要功能点
- 对话记忆: 记录并管理与 LLM 的对话历史,支持检索和清除记忆。
- 多 LLM 提供商支持: 支持 OpenAI, Anthropic, OpenRouter 和 Ollama 四种主流 LLM 服务,方便用户根据需求选择。
- 模型切换: 允许用户在运行时切换不同提供商的不同模型,例如 OpenAI 的 gpt-4o, Anthropic 的 Claude 3 Opus, 或 Ollama 的本地模型。
- 工具集成: 通过 MCP 协议提供标准化的工具接口,例如 'chat' (发送消息), 'get_memory' (获取记忆), 'clear_memory' (清除记忆), 'use_provider' (切换提供商), 'use_model' (切换模型)。
- 配置持久化: 用户的提供商和模型选择会被保存,下次启动服务器时自动加载。
安装步骤
- 安装 Node.js 和 npm: 确保你的系统已安装 Node.js 和 npm (Node 包管理器)。
- 下载仓库代码: 从 GitHub 仓库 https://github.com/Vic563/Memgpt-MCP-Server 下载代码到本地。
- 安装依赖: 在仓库根目录下打开终端,运行以下命令安装项目依赖:
npm install - 构建项目: 运行以下命令构建 TypeScript 代码:
构建成功后,会在 'build' 目录下生成可执行的 'index.js' 文件。npm run build
服务器配置
MCP 客户端 (例如 Claude Desktop) 需要配置 MCP 服务器的启动信息才能连接。以下是 MemGPT MCP Server 的配置示例,请根据你的实际情况修改:
{ "mcpServers": { "letta-memgpt": { // 服务器名称,客户端配置中引用此名称 "command": "/path/to/memgpt-server/build/index.js", // MemGPT MCP Server 启动命令,指向构建后的 index.js 文件路径。请替换为你的实际路径 "env": { // 环境变量配置 "OPENAI_API_KEY": "your-openai-key", // 你的 OpenAI API 密钥,如果使用 OpenAI 模型,请配置 "ANTHROPIC_API_KEY": "your-anthropic-key", // 你的 Anthropic API 密钥,如果使用 Anthropic 模型,请配置 "OPENROUTER_API_KEY": "your-openrouter-key" // 你的 OpenRouter API 密钥,如果使用 OpenRouter 模型,请配置 } } } }
配置说明:
- '"letta-memgpt"': 服务器的名称,可以自定义,客户端需要使用此名称来引用该服务器配置。
- '"command"': 指向 MemGPT MCP Server 构建后生成的 'index.js' 文件的绝对路径。请务必替换 '/path/to/memgpt-server/build/index.js' 为你本地 'index.js' 文件的实际路径。
- '"env"': 环境变量配置,用于设置访问不同 LLM 提供商 API 所需的密钥。
- 'OPENAI_API_KEY', 'ANTHROPIC_API_KEY', 'OPENROUTER_API_KEY': 分别对应 OpenAI, Anthropic 和 OpenRouter 的 API 密钥。请根据你计划使用的 LLM 提供商配置相应的密钥。 如果不需要使用某个提供商,可以留空或删除对应的配置项。
Claude Desktop 配置位置:
- MacOS: '~/Library/Application Support/Claude/claude_desktop_config.json'
- Windows: '%APPDATA%/Claude/claude_desktop_config.json'
请将上述 JSON 配置添加到 'claude_desktop_config.json' 文件中的 'mcpServers' 字段下 (如果该字段不存在,请手动创建)。
基本使用方法
- 启动服务器: 在仓库根目录下打开终端,运行以下命令启动 MemGPT MCP Server:
或者,你也可以直接运行构建后的 'index.js' 文件:npm run build && node build/index.js
服务器成功启动后,会在终端输出 'Letta MemGPT MCP server running on stdio'。node /path/to/memgpt-server/build/index.js - 在 MCP 客户端中使用: 在支持 MCP 协议的客户端 (例如 Claude Desktop) 中,选择配置好的 'letta-memgpt' 服务器。
- 使用工具与 LLM 交互: 通过客户端提供的界面或命令,可以调用 MemGPT MCP Server 提供的工具,例如:
- 使用 '/chat <你的消息>' 向当前配置的 LLM 模型发送消息并获取回复。对话历史会被自动记录。
- 使用 '/get_memory' 查看最近的对话历史记录。可以使用 '/get_memory limit: 20' 查看最近 20 条记录,或者 '/get_memory limit: null' 查看所有记录。
- 使用 '/clear_memory' 清除所有对话历史记录。
- 使用 '/use_provider <provider_name>' 切换 LLM 提供商,例如 '/use_provider openai', '/use_provider anthropic', '/use_provider ollama', '/use_provider openrouter'。
- 使用 '/use_model <model_name>' 切换当前提供商的模型,例如 '/use_model gpt-4o' (OpenAI), '/use_model claude-3-opus' (Anthropic), '/use_model llama2' (Ollama), '/use_model openai/gpt-4' (OpenRouter)。
注意:
- 首次使用或切换提供商后,可能需要等待一段时间让服务器完成初始化和模型加载。
- Ollama 提供商需要在本地安装并运行 Ollama 服务,并确保模型已下载到本地。
信息
分类
AI与计算