项目简介
Langflow 是一个强大的开源工具,旨在简化AI驱动的代理和工作流的构建与部署。它通过直观的图形界面,让开发者能够快速设计、测试和迭代复杂的AI应用。Langflow 不仅支持将工作流作为传统API部署,更集成了 MCP (Model Context Protocol) 服务器功能,允许 LLM 客户端以标准化的方式获取上下文信息、调用工具和利用预定义Prompt模板,为下一代AI应用提供安全、可扩展的后端服务。
主要功能点
- 可视化构建器: 通过拖放组件(如LLM、Prompt、工具、内存、数据加载器等)快速构建和迭代AI工作流,无需编写大量代码。
- 源代码访问与定制: 允许开发者深入组件内部,使用Python代码进行高级定制或创建全新组件。
- 交互式测试平台: 提供内置的交互式Playground,支持逐步控制,方便即时测试、调试和优化流程。
- 多代理编排: 支持复杂的多代理工作流,具备会话管理和信息检索能力。
- API 和 MCP 服务器部署: 可将任何构建好的工作流一键部署为标准API接口,或作为遵循 Model Context Protocol 的服务器,供LLM客户端调用。
- 丰富集成: 内置对主流LLM(如OpenAI、Anthropic)、向量数据库和不断增长的AI工具库的支持。
- 可观测性: 集成了 LangSmith、LangFuse 等工具,提供全面的工作流运行监控和日志记录。
安装步骤
- 环境要求: 确保您的系统已安装 Python 3.10–3.13。强烈建议使用 'uv' 包管理器进行安装,它能提供更快的安装速度。
- 如果您尚未安装 'uv',可以通过 'pip install uv' 安装。
- 安装 Langflow: 打开终端或命令行界面,运行以下命令安装最新版本的 Langflow:
uv pip install langflow -U - 运行 Langflow 服务器: 安装完成后,继续在终端中运行以下命令启动 Langflow 服务器:
uv run langflow run - 访问界面: 服务器成功启动后,您可以在浏览器中访问 'http://127.0.0.1:7860',即可进入 Langflow 的可视化构建界面,开始您的AI工作流设计之旅。
MCP 服务器配置(供MCP客户端使用)
作为 MCP 客户端,您需要配置如何与 Langflow MCP 服务器建立连接。以下是一个示例配置,假定 Langflow 服务器已通过 'uv run langflow run' 启动并在本地运行,且 MCP 客户端能够通过 'stdio' 协议与其通信。
{ "serverName": "Langflow MCP 服务器 (本地)", "command": "uv", "args": ["run", "langflow", "run"], "description": "此配置指示 MCP 客户端通过 'uv run langflow run' 命令启动本地 Langflow 进程,并尝试通过标准输入输出(stdio)建立 MCP 通信。请确保您的 Langflow 已正确安装并可由系统 PATH 访问。", "protocol": "stdio" }
- 'serverName': 您为 Langflow MCP 服务器定义的易读名称。
- 'command': 用于启动 Langflow 应用程序的命令。在这里是 'uv',因为它是推荐的运行器。
- 'args': 传递给 'command' 的参数列表。'["run", "langflow", "run"]' 会启动 Langflow 的主服务。
- 'description': 对此 MCP 服务器配置的简要说明。
- 'protocol': 客户端与服务器通信所使用的协议。'"stdio"' 表示通过标准输入/输出流进行通信,这通常用于 MCP 客户端作为子进程启动 MCP 服务器的情况。
重要提示: Langflow 支持多种 MCP 传输协议(如 Stdio, SSE, WebSocket),但其 MCP 服务器的启动方式和具体协议配置参数在提供的仓库信息中未详细说明。上述 'command' 和 'args' 假设 'langflow run' 能够默认或通过内部机制支持 MCP 的 stdio 协议。实际部署和使用时,请务必查阅 Langflow 的官方文档或相关发布说明,以获取最准确的 MCP 服务器启动命令、端口信息以及所支持的协议配置详情。对于网络协议(如 WebSocket),客户端可能需要配置 'url' 而非 'command' 和 'args'。
基本使用方法
- 启动 Langflow: 按照上述安装步骤,通过 'uv run langflow run' 命令启动 Langflow 服务器。
- 创建或加载工作流: 在浏览器中访问 Langflow 界面,您可以从头开始创建新的工作流,或加载已有的JSON格式工作流文件。
- 构建和配置: 将各种组件(如“Chat Input”、“OpenAI Chat Model”、“Prompt Template”、“Chat Output”等)拖放到画布上,并通过连接线定义数据流。点击每个组件,在右侧面板配置其参数(如API密钥、模型ID、提示文本等)。
- 测试工作流: 使用界面下方的“Playground”功能,输入测试数据,逐步运行工作流并观察输出,以确保其按预期工作。
- 部署为 MCP 服务器: 完成工作流设计和测试后,将其保存并部署。部署后,您的工作流将通过 Langflow 的内置 MCP 服务器暴露,等待兼容的 LLM 客户端连接并调用,以获取上下文和执行工具。
信息
分类
AI与计算