使用说明
项目简介
FLUJO 是一个本地优先的开源平台,旨在桥接工作流编排、模型上下文协议(MCP)和AI工具集成。它提供了一个统一的界面来管理AI模型、MCP服务器和复杂的工作流程。FLUJO 通过集成 MCP 服务器,使得用户可以轻松管理资源、工具和Prompt模板,从而为LLM应用提供强大的上下文服务。
主要功能点
- MCP服务器集成: FLUJO 允许用户轻松安装和管理 MCP 服务器,并能查看和管理服务器提供的工具。它支持从 GitHub 仓库或本地文件系统安装 MCP 服务器,并能绑定服务器的环境变量。
- 模型管理: 支持配置和使用多个 AI 模型,可以灵活连接到不同的 API 提供商(如 OpenAI、Anthropic)以及本地模型(通过 Ollama)。
- 工作流编排: 提供可视化流程构建器,用户可以设计复杂的工作流程,并将 MCP 服务器的工具集成到工作流程中。
- 环境和API密钥管理: 安全存储和管理 API 密钥和环境变量,并在整个应用中全局访问。
安装步骤
- 环境准备: 确保已安装 Node.js (v18 或更高版本) 和 npm 或 yarn。
- 克隆仓库: 使用 Git 克隆 FLUJO 仓库到本地:
git clone https://github.com/mario-andreschak/FLUJO.git cd FLUJO - 安装依赖: 在 FLUJO 目录下运行以下命令安装项目依赖:
npm install # 或 yarn install - 启动开发服务器: 运行以下命令启动 FLUJO 的开发服务器:
npm run dev # 或 yarn dev - 访问 FLUJO: 在浏览器中访问 'http://localhost:4200'。
服务器配置
FLUJO 本身作为一个平台来管理和集成 MCP 服务器,它不是一个独立的 MCP 服务器实现。用户需要安装并配置外部的 MCP 服务器,然后在 FLUJO 中进行管理和集成。
在 FLUJO 中配置 MCP 服务器时,需要提供服务器的启动命令和参数。以下是一个通用的 JSON 格式配置示例,用于在 FLUJO 中添加一个新的 MCP 服务器:
{ "name": "my-mcp-server", // MCP 服务器的名称,用户自定义 "transport": "stdio", // 使用 stdio 传输协议 "command": "path/to/mcp-server-executable", // MCP 服务器可执行文件的路径,例如:'/path/to/your-server/server' "args": [], // 启动命令的参数,例如:["--port", "8080"]。如果不需要参数,则为空数组。 "env": {}, // 环境变量,可以为空对象 "disabled": false, // 是否禁用该服务器,默认为 false "autoApprove": [] // 自动批准的工具列表,用于安全设置,通常为空数组 }
基本使用方法
- 添加模型: 在 FLUJO 界面中,导航到 "Models" 页面,点击 "Add Model" 配置并添加 AI 模型。
- 管理 MCP 服务器: 导航到 "MCP" 页面,点击 "Add Server" 安装和管理 MCP 服务器。您可以选择从 GitHub 仓库或本地文件系统安装。安装后,您可以查看服务器的工具列表并进行管理。
- 创建工作流: 导航到 "Flows" 页面,使用可视化流程构建器创建工作流程,将模型和 MCP 服务器的工具集成到流程节点中。
- 使用聊天界面: 导航到 "Chat" 页面,选择一个工作流进行交互,开始与配置的工作流程进行对话。
关键词
工作流编排, AI工具集成, 上下文服务, 本地部署, 模型管理
信息
分类
开发者工具