使用说明

项目简介

FLUJO 是一个本地优先的开源平台,旨在桥接工作流编排、模型上下文协议(MCP)和AI工具集成。它提供了一个统一的界面来管理AI模型、MCP服务器和复杂的工作流程。FLUJO 通过集成 MCP 服务器,使得用户可以轻松管理资源、工具和Prompt模板,从而为LLM应用提供强大的上下文服务。

主要功能点

  • MCP服务器集成: FLUJO 允许用户轻松安装和管理 MCP 服务器,并能查看和管理服务器提供的工具。它支持从 GitHub 仓库或本地文件系统安装 MCP 服务器,并能绑定服务器的环境变量。
  • 模型管理: 支持配置和使用多个 AI 模型,可以灵活连接到不同的 API 提供商(如 OpenAI、Anthropic)以及本地模型(通过 Ollama)。
  • 工作流编排: 提供可视化流程构建器,用户可以设计复杂的工作流程,并将 MCP 服务器的工具集成到工作流程中。
  • 环境和API密钥管理: 安全存储和管理 API 密钥和环境变量,并在整个应用中全局访问。

安装步骤

  1. 环境准备: 确保已安装 Node.js (v18 或更高版本) 和 npm 或 yarn。
  2. 克隆仓库: 使用 Git 克隆 FLUJO 仓库到本地:
    git clone https://github.com/mario-andreschak/FLUJO.git
    cd FLUJO
  3. 安装依赖: 在 FLUJO 目录下运行以下命令安装项目依赖:
    npm install
    # 或
    yarn install
  4. 启动开发服务器: 运行以下命令启动 FLUJO 的开发服务器:
    npm run dev
    # 或
    yarn dev
  5. 访问 FLUJO: 在浏览器中访问 'http://localhost:4200'。

服务器配置

FLUJO 本身作为一个平台来管理和集成 MCP 服务器,它不是一个独立的 MCP 服务器实现。用户需要安装并配置外部的 MCP 服务器,然后在 FLUJO 中进行管理和集成。

在 FLUJO 中配置 MCP 服务器时,需要提供服务器的启动命令和参数。以下是一个通用的 JSON 格式配置示例,用于在 FLUJO 中添加一个新的 MCP 服务器:

{
  "name": "my-mcp-server",  // MCP 服务器的名称,用户自定义
  "transport": "stdio",      // 使用 stdio 传输协议
  "command": "path/to/mcp-server-executable", // MCP 服务器可执行文件的路径,例如:'/path/to/your-server/server'
  "args": [],               // 启动命令的参数,例如:["--port", "8080"]。如果不需要参数,则为空数组。
  "env": {},                // 环境变量,可以为空对象
  "disabled": false,         // 是否禁用该服务器,默认为 false
  "autoApprove": []         // 自动批准的工具列表,用于安全设置,通常为空数组
}

基本使用方法

  1. 添加模型: 在 FLUJO 界面中,导航到 "Models" 页面,点击 "Add Model" 配置并添加 AI 模型。
  2. 管理 MCP 服务器: 导航到 "MCP" 页面,点击 "Add Server" 安装和管理 MCP 服务器。您可以选择从 GitHub 仓库或本地文件系统安装。安装后,您可以查看服务器的工具列表并进行管理。
  3. 创建工作流: 导航到 "Flows" 页面,使用可视化流程构建器创建工作流程,将模型和 MCP 服务器的工具集成到流程节点中。
  4. 使用聊天界面: 导航到 "Chat" 页面,选择一个工作流进行交互,开始与配置的工作流程进行对话。

关键词

工作流编排, AI工具集成, 上下文服务, 本地部署, 模型管理

信息

分类

开发者工具