项目简介

Orcheo是一个强大的工作流编排工具,旨在让AI助手(如Claude)能够与复杂的后端系统进行交互。它通过实现Model Context Protocol (MCP) 标准,提供了一个接口,允许大型语言模型(LLM)访问和管理资源、调用外部工具,并参与可定制的工作流。Orcheo后端基于FastAPI构建,支持多种持久化选项(如SQLite),并提供了灵活的认证机制。

主要功能点

  • AI工作流编排与管理:创建、上传、下载、运行和管理复杂的AI工作流,支持版本控制和图形化查看。
  • 智能体工具注册:发现和检查已注册的功能节点及AI代理工具,允许LLM调用外部功能。
  • 凭证与安全管理:集中管理工作流所需的API密钥、OAuth令牌等凭证,支持访问控制和安全审计。
  • 会话与历史追踪:记录和管理工作流的执行历史、日志和会话状态。
  • 灵活的触发机制:支持Webhook、Cron定时任务和手动触发工作流执行。
  • Model Context Protocol (MCP) 支持:作为MCP服务器,允许LLM客户端以标准化方式与工作流进行交互,获取上下文和执行功能。

安装步骤

  1. 安装uv包管理器 (如果尚未安装):
    pip install uv
  2. 安装Orcheo及其后端和SDK组件
    uv add orcheo orcheo-backend orcheo-sdk
  3. 激活虚拟环境 (推荐,但可选):
    source .venv/bin/activate  # macOS/Linux
    # 或
    .venv\Scripts\activate     # Windows
  4. 运行API服务器
    orcheo-dev-server
    服务器将在 'http://localhost:8000' 启动。

MCP服务器配置

Orcheo SDK内置的MCP服务器可以与兼容的LLM客户端(如Claude Desktop, Claude CLI, Codex CLI)集成。以下是配置示例:

Claude Desktop 配置 ('claude_desktop_config.json' 文件内容)

{
  "Orcheo": {
    "command": "/path/to/uvx",
    "args": [
      "--from",
      "orcheo-sdk@latest",
      "orcheo-mcp"
    ],
    "env": {
      "ORCHEO_API_URL": "http://localhost:8000"
    },
    "comment": "Orcheo MCP服务器配置"
  }
}
  • '"Orcheo"': 这是您为MCP服务器起的名称,客户端将使用此名称引用它。
  • '"command"': 替换为您的 'uvx' 可执行文件在系统中的完整路径(例如,在Linux/macOS上可以通过 'which uvx' 命令找到)。
  • '"args"': 这是传递给 'uvx' 命令的参数列表。'--from orcheo-sdk@latest orcheo-mcp' 指示 'uvx' 运行 'orcheo-sdk' 中的 'orcheo-mcp' 模块。
  • '"env"': 这是一个环境变量字典。'"ORCHEO_API_URL": "http://localhost:8000"' 告诉 'orcheo-mcp' 您的Orcheo后端API服务正在哪个地址运行。
  • '"comment"': 可选的用户友好注释,帮助您理解此配置的用途。

Claude CLI 配置 (命令行命令)

claude mcp add-json Orcheo --scope user '{
  "command": "/path/to/uvx",
  "args": [
    "--from",
    "orcheo-sdk@latest",
    "orcheo-mcp"
  ],
  "env": {
    "ORCHEO_API_URL": "http://localhost:8000"
  },
  "comment": "Orcheo MCP服务器配置"
}'
  • 'command' 和 'env' 的替换说明同上。此命令会将JSON配置添加到Claude CLI的用户范围。

Codex CLI 配置 (命令行命令)

codex add server Orcheo \
  /path/to/uvx \
  --from orcheo-sdk@latest orcheo-mcp \
  --env ORCHEO_API_URL=http://localhost:8000 \
  --comment "Orcheo MCP服务器配置"
  • 'command' 和 'env' 的替换说明同上。此命令会将Orcheo服务器配置添加到Codex CLI。

基本使用方法

  1. 启动Orcheo后端服务:确保已按照上述安装步骤运行 'orcheo-dev-server'。
  2. 配置LLM客户端:根据您使用的LLM客户端(如Claude Desktop),将其配置为通过 'orcheo-mcp' 连接到Orcheo服务器。请参考上方的MCP服务器配置示例。
  3. 在LLM客户端中交互:现在,您的AI助手将能够:
    • 发现工作流作为工具:通过聊天或命令行界面,LLM可以查询和识别Orcheo中托管的工作流作为可用的工具。
    • 调用工作流:LLM可以根据工作流的定义,提供相应的输入,并触发工作流的执行。
    • 获取工作流执行结果:LLM将接收工作流执行的实时更新和最终结果,以便继续其对话或任务。

信息

分类

AI与计算