Mai-Tai MCP 服务端

使用说明内容(Markdown格式)

Mai-Tai MCP 服务端

本项目是一个完整的 MCP 服务器实现,负责通过 MCP 协议向投喂的 AI 客户端提供资源、工具和提示模板等上下文信息与功能。服务器会与后端后台 API 进行通信,管理会话、能力声明,并通过多种传输方式支持与 LLM 客户端的交互。

  • 主要功能

    • MCP 服务端核心:处理 MCP 请求/响应,提供标准化的资源、工具、提示模板的注册、管理和执行入口。
    • 资源与提示:内置机制托管资源和提示模板,支持渲染与提供给客户端使用。
    • 工具执行:注册与执行工具,LLM 可以通过工具调用外部能力。
    • 会话与能力声明:维护会话上下文、工作区信息及能力声明。
    • 多传输协议支持:理论上支持 stdio、SSE、WebSocket 等传输方式(当前实现以 stdio 为主的运行模式,便于与代理/LLM 直接集成)。
    • 安全与扩展性:通过后端配置与 API 进行身份校验、工作区绑定,具备可扩展的后端通信与错误分类。
  • 安装与运行

    • 本仓库的 MCP 服务端通过 uvx(UV package runner)运行,示例启动命令为: uvx --refresh mai-tai-mcp
    • 同步运行整套 Mai-Tai 系统时,开发者通常按照仓库 README 给出的本地化启动流程,将前端、后端、数据库配套启动。MCP 服务端作为独立组件,可独立部署以供 LLM 客户端连接。
  • 客户端集成要点

    • 客户端通过 MCP 协议向服务器发送请求(如读取资源、调用工具、获取 Prompts),服务器返回 JSON-RPC 风格响应或通知。
    • 客户端需要在启动阶段获得正确的 server blob/setup 信息,用以完成握手与后续调用。

服务器信息