使用说明内容(Markdown格式)
-
项目简介
- MemWyre MCP 服务器端实现是一个完整的后端服务,遵循 Model Context Protocol(MCP)规范,提供资源管理、工具注册与执行、以及可渲染的提示模板,帮助 LLM 客户端以统一的上下文与能力进行交互。
- 服务器通过 FastAPI + mcp_server.py 搭建,定义了多种 MCP Tool/Prompt/Resource,使 LLM 客户端能够读取资源、调用工具、获取并渲染 Prompt。
-
主要功能点
- 资源管理:提供对知识库中的记忆、文档等数据的读取、检索与管理能力。
- 工具注册与执行:暴露可被 LLM 调用的工具,用于跨系统读取、写入与处理数据。
- Prompt 定义与渲染:支持 Prompt 模板的创建与渲染,帮助 LLM 以统一格式获取上下文和指引。
- 会话与授权:结合用户和权限模型,实现多用户场景的访问控制与会话管理。
- JSON-RPC 风格交互:服务器端实现 MCP 的请求-响应流程,客户端通过 MCP 客户端进行请求。
- 可能的传输扩展性:设计中具备 stdio/SSE/WebSocket 等传输通道的扩展能力。
-
安装步骤
- 运行前提:需要安装 Python 环境与依赖、以及 Redis 与(可选的)向量数据库/向量存储组件。
- 启动服务器(后端 MCP 服务端):
- 安装依赖并启动 mcp 服务器脚本(mcp_server.py),确保后端数据库与向量存储服务就绪。
- 运行环境建议:
- Python 3.x
- Redis(若使用 celery/后台任务)
- 相关向量存储后端(如 Pinecone/Chroma 等)及对应配置
- 运行后端示例入口(非代码片段说明):
- 启动后端应用,确保 API 服务暴露在可访问的地址,MCP 服务器将对外提供 MCP 服务。
-
服务器配置(MCP 客户端连接信息) 配置示例(JSON,客户端需提供以下信息以连接 MCP 服务器,具体路径与端点根据实现环境调整): { "server_name": "brain-vault", "command": "python", "args": ["backend/mcp_server.py"] } 注释说明:
- server_name: MCP 服务器在客户端的标识名称,便于区分多服务器环境。
- command: 启动 MCP 服务器的命令,客户端仅需读取该信息以连接相应服务。
- args: 启动命令的参数,通常包含启动脚本路径及必要参数。 注:MCP 客户端不需要在此处执行具体代码,只需了解服务器的启动命令与参数以建立连接。
-
基本使用方法
- 启动与连接
- 在后端运行 MCP 服务器,确保服务器正常暴露 MCP 服务。
- 在 MCP 客户端配置中使用上述 server_name、command、args 等信息建立连接。
- 使用流程
- 通过 MCP 客户端向服务器请求资源、执行工具、获取并渲染 Prompts。
- MCP 服务器返回标准的 JSON-RPC 风格响应,包括成功数据或错误信息。
- 调试与维护
- 检查日志输出,确保 MCP 请求与响应符合协议格式。
- 如出现认证/授权问题,检查环境变量、数据库中的用户与权限设置。
- 启动与连接
信息
分类
AI与计算