使用说明内容(Markdown格式)

  • 项目简介

    • MemWyre MCP 服务器端实现是一个完整的后端服务,遵循 Model Context Protocol(MCP)规范,提供资源管理、工具注册与执行、以及可渲染的提示模板,帮助 LLM 客户端以统一的上下文与能力进行交互。
    • 服务器通过 FastAPI + mcp_server.py 搭建,定义了多种 MCP Tool/Prompt/Resource,使 LLM 客户端能够读取资源、调用工具、获取并渲染 Prompt。
  • 主要功能点

    • 资源管理:提供对知识库中的记忆、文档等数据的读取、检索与管理能力。
    • 工具注册与执行:暴露可被 LLM 调用的工具,用于跨系统读取、写入与处理数据。
    • Prompt 定义与渲染:支持 Prompt 模板的创建与渲染,帮助 LLM 以统一格式获取上下文和指引。
    • 会话与授权:结合用户和权限模型,实现多用户场景的访问控制与会话管理。
    • JSON-RPC 风格交互:服务器端实现 MCP 的请求-响应流程,客户端通过 MCP 客户端进行请求。
    • 可能的传输扩展性:设计中具备 stdio/SSE/WebSocket 等传输通道的扩展能力。
  • 安装步骤

    • 运行前提:需要安装 Python 环境与依赖、以及 Redis 与(可选的)向量数据库/向量存储组件。
    • 启动服务器(后端 MCP 服务端):
      • 安装依赖并启动 mcp 服务器脚本(mcp_server.py),确保后端数据库与向量存储服务就绪。
    • 运行环境建议:
      • Python 3.x
      • Redis(若使用 celery/后台任务)
      • 相关向量存储后端(如 Pinecone/Chroma 等)及对应配置
    • 运行后端示例入口(非代码片段说明):
      • 启动后端应用,确保 API 服务暴露在可访问的地址,MCP 服务器将对外提供 MCP 服务。
  • 服务器配置(MCP 客户端连接信息) 配置示例(JSON,客户端需提供以下信息以连接 MCP 服务器,具体路径与端点根据实现环境调整): { "server_name": "brain-vault", "command": "python", "args": ["backend/mcp_server.py"] } 注释说明:

    • server_name: MCP 服务器在客户端的标识名称,便于区分多服务器环境。
    • command: 启动 MCP 服务器的命令,客户端仅需读取该信息以连接相应服务。
    • args: 启动命令的参数,通常包含启动脚本路径及必要参数。 注:MCP 客户端不需要在此处执行具体代码,只需了解服务器的启动命令与参数以建立连接。
  • 基本使用方法

    • 启动与连接
      • 在后端运行 MCP 服务器,确保服务器正常暴露 MCP 服务。
      • 在 MCP 客户端配置中使用上述 server_name、command、args 等信息建立连接。
    • 使用流程
      • 通过 MCP 客户端向服务器请求资源、执行工具、获取并渲染 Prompts。
      • MCP 服务器返回标准的 JSON-RPC 风格响应,包括成功数据或错误信息。
    • 调试与维护
      • 检查日志输出,确保 MCP 请求与响应符合协议格式。
      • 如出现认证/授权问题,检查环境变量、数据库中的用户与权限设置。

信息

分类

AI与计算