flompt MCP 服务端
使用说明(Markdown 格式)
-
项目简介
- flompt 提供一个 MCP(Model Context Protocol)服务器,允许 LLM 客户端通过标准化的 JSON-RPC 请求读取资源、注册和执行工具、获取并渲染 Prompt 模板。核心能力包括对话上下文的托管、对外部功能的工具注册与执行,以及对 Prompt 模板的渲染输出。服务器通过 FastAPI 提供接口,并在 /mcp 路径对外暴露。
-
主要功能点(通俗易懂、避免专业术语)
- 资源管理:提供可访问的上下文资源,辅助 LLM 进行推理或生成。
- 工具注册与执行:LLM 客户端可调用后端暴露的工具,执行外部功能(如分解、编译等)。
- Prompt 模板渲染:将结构化块渲染为 Claude/Anthropic 等平台可使用的 XML/Markdown 表达形式。
- 会话与能力声明:维持会话状态和能力声明,支持多种传输与安全需求。
- JSON-RPC 风格通信:客户端通过标准的 JSON-RPC 请求与服务器交互,获取响应或接收通知。
- 多传输与扩展:基于 FastAPI 实现,后续可支持 Stdio、SSE、WebSocket 等传输方式。
-
安装步骤(简明可操作)
- 确保系统环境具备 Python 3.12+,并安装依赖(通常在 backend 目录下执行 install 相关步骤)。
- 安装必要的后端依赖后,启动后端 API 服务,例如通过 uvicorn 启动:uvicorn backend.app.main:app --host 0.0.0.0 --port 8000
- 生产部署时可结合 Nginx/Caddy 做反向代理与 TLS 终结,保证对外暴露的 /mcp 路径在安全通道内。
- MCP 服务在生产环境的暴露地址示例(用于客户端配置的 URL 字段): https://your-host/mcp/
-
服务器配置(MCP 客户端需要,以下为示例 JSON,字段含义在注释中给出) 请将以下信息提供给 MCP 客户端(为 JSON 配置,不包含代码块,含字段注释,实际使用时请按客户端要求格式提供): { "server": "flompt", "command": "uvicorn", "args": ["backend.app.main:app", "--host", "0.0.0.0", "--port", "8000"] } 说明:
- server: 配置的服务器名称,建议与公开暴露的 MCP 服务端保持一致,这里取值为 flompt。
- command: 启动服务的主命令,这里使用 uvicorn。
- args: 启动命令的参数,包含应用入口点和监听地址端口,确保服务器对外暴露的端口与客户端配置一致。
- 该配置仅用于 MCP 客户端连接测试,客户端实际连接时不需要额外的代码片段。
- MCP 服务公开地址示例(用于客户端访问): https://flompt.dev/mcp/
-
基本使用方法(简易操作指引)
- 客户端在调用时向服务器发起 JSON-RPC 请求,指定读取资源、执行工具、获取 Prompt 的方法名与参数,服务器返回相应的 JSON-RPC 响应或通知。
- 集成示例流程(简述:部署、连接、调用工具、获取输出):
- 启动后端并暴露 MCP 端点 /mcp/。
- Claude Code 等 MCP 客户端配置服务器名称和 URL。
- 从客户端发起 decompose_prompt、compile_prompt、list_block_types 等工具调用,服务器返回相应结果。
- 客户端按需要读取资源、执行工具并渲染最终 Prompt。