flompt MCP 服务端

使用说明(Markdown 格式)

  • 项目简介

    • flompt 提供一个 MCP(Model Context Protocol)服务器,允许 LLM 客户端通过标准化的 JSON-RPC 请求读取资源、注册和执行工具、获取并渲染 Prompt 模板。核心能力包括对话上下文的托管、对外部功能的工具注册与执行,以及对 Prompt 模板的渲染输出。服务器通过 FastAPI 提供接口,并在 /mcp 路径对外暴露。
  • 主要功能点(通俗易懂、避免专业术语)

    • 资源管理:提供可访问的上下文资源,辅助 LLM 进行推理或生成。
    • 工具注册与执行:LLM 客户端可调用后端暴露的工具,执行外部功能(如分解、编译等)。
    • Prompt 模板渲染:将结构化块渲染为 Claude/Anthropic 等平台可使用的 XML/Markdown 表达形式。
    • 会话与能力声明:维持会话状态和能力声明,支持多种传输与安全需求。
    • JSON-RPC 风格通信:客户端通过标准的 JSON-RPC 请求与服务器交互,获取响应或接收通知。
    • 多传输与扩展:基于 FastAPI 实现,后续可支持 Stdio、SSE、WebSocket 等传输方式。
  • 安装步骤(简明可操作)

    • 确保系统环境具备 Python 3.12+,并安装依赖(通常在 backend 目录下执行 install 相关步骤)。
    • 安装必要的后端依赖后,启动后端 API 服务,例如通过 uvicorn 启动:uvicorn backend.app.main:app --host 0.0.0.0 --port 8000
    • 生产部署时可结合 Nginx/Caddy 做反向代理与 TLS 终结,保证对外暴露的 /mcp 路径在安全通道内。
    • MCP 服务在生产环境的暴露地址示例(用于客户端配置的 URL 字段): https://your-host/mcp/
  • 服务器配置(MCP 客户端需要,以下为示例 JSON,字段含义在注释中给出) 请将以下信息提供给 MCP 客户端(为 JSON 配置,不包含代码块,含字段注释,实际使用时请按客户端要求格式提供): { "server": "flompt", "command": "uvicorn", "args": ["backend.app.main:app", "--host", "0.0.0.0", "--port", "8000"] } 说明:

    • server: 配置的服务器名称,建议与公开暴露的 MCP 服务端保持一致,这里取值为 flompt。
    • command: 启动服务的主命令,这里使用 uvicorn。
    • args: 启动命令的参数,包含应用入口点和监听地址端口,确保服务器对外暴露的端口与客户端配置一致。
    • 该配置仅用于 MCP 客户端连接测试,客户端实际连接时不需要额外的代码片段。
    • MCP 服务公开地址示例(用于客户端访问): https://flompt.dev/mcp/
  • 基本使用方法(简易操作指引)

    • 客户端在调用时向服务器发起 JSON-RPC 请求,指定读取资源、执行工具、获取 Prompt 的方法名与参数,服务器返回相应的 JSON-RPC 响应或通知。
    • 集成示例流程(简述:部署、连接、调用工具、获取输出):
      1. 启动后端并暴露 MCP 端点 /mcp/。
      2. Claude Code 等 MCP 客户端配置服务器名称和 URL。
      3. 从客户端发起 decompose_prompt、compile_prompt、list_block_types 等工具调用,服务器返回相应结果。
      4. 客户端按需要读取资源、执行工具并渲染最终 Prompt。

服务器信息