Mai-Tai MCP 服务端
使用说明内容(Markdown格式)
Mai-Tai MCP 服务端
本项目是一个完整的 MCP 服务器实现,负责通过 MCP 协议向投喂的 AI 客户端提供资源、工具和提示模板等上下文信息与功能。服务器会与后端后台 API 进行通信,管理会话、能力声明,并通过多种传输方式支持与 LLM 客户端的交互。
-
主要功能
- MCP 服务端核心:处理 MCP 请求/响应,提供标准化的资源、工具、提示模板的注册、管理和执行入口。
- 资源与提示:内置机制托管资源和提示模板,支持渲染与提供给客户端使用。
- 工具执行:注册与执行工具,LLM 可以通过工具调用外部能力。
- 会话与能力声明:维护会话上下文、工作区信息及能力声明。
- 多传输协议支持:理论上支持 stdio、SSE、WebSocket 等传输方式(当前实现以 stdio 为主的运行模式,便于与代理/LLM 直接集成)。
- 安全与扩展性:通过后端配置与 API 进行身份校验、工作区绑定,具备可扩展的后端通信与错误分类。
-
安装与运行
- 本仓库的 MCP 服务端通过 uvx(UV package runner)运行,示例启动命令为: uvx --refresh mai-tai-mcp
- 同步运行整套 Mai-Tai 系统时,开发者通常按照仓库 README 给出的本地化启动流程,将前端、后端、数据库配套启动。MCP 服务端作为独立组件,可独立部署以供 LLM 客户端连接。
-
客户端集成要点
- 客户端通过 MCP 协议向服务器发送请求(如读取资源、调用工具、获取 Prompts),服务器返回 JSON-RPC 风格响应或通知。
- 客户端需要在启动阶段获得正确的 server blob/setup 信息,用以完成握手与后续调用。