项目简介
Orcheo是一个强大的工作流编排工具,旨在让AI助手(如Claude)能够与复杂的后端系统进行交互。它通过实现Model Context Protocol (MCP) 标准,提供了一个接口,允许大型语言模型(LLM)访问和管理资源、调用外部工具,并参与可定制的工作流。Orcheo后端基于FastAPI构建,支持多种持久化选项(如SQLite),并提供了灵活的认证机制。
主要功能点
- AI工作流编排与管理:创建、上传、下载、运行和管理复杂的AI工作流,支持版本控制和图形化查看。
- 智能体工具注册:发现和检查已注册的功能节点及AI代理工具,允许LLM调用外部功能。
- 凭证与安全管理:集中管理工作流所需的API密钥、OAuth令牌等凭证,支持访问控制和安全审计。
- 会话与历史追踪:记录和管理工作流的执行历史、日志和会话状态。
- 灵活的触发机制:支持Webhook、Cron定时任务和手动触发工作流执行。
- Model Context Protocol (MCP) 支持:作为MCP服务器,允许LLM客户端以标准化方式与工作流进行交互,获取上下文和执行功能。
安装步骤
- 安装uv包管理器 (如果尚未安装):
pip install uv - 安装Orcheo及其后端和SDK组件:
uv add orcheo orcheo-backend orcheo-sdk - 激活虚拟环境 (推荐,但可选):
source .venv/bin/activate # macOS/Linux # 或 .venv\Scripts\activate # Windows - 运行API服务器:
服务器将在 'http://localhost:8000' 启动。orcheo-dev-server
MCP服务器配置
Orcheo SDK内置的MCP服务器可以与兼容的LLM客户端(如Claude Desktop, Claude CLI, Codex CLI)集成。以下是配置示例:
Claude Desktop 配置 ('claude_desktop_config.json' 文件内容)
{ "Orcheo": { "command": "/path/to/uvx", "args": [ "--from", "orcheo-sdk@latest", "orcheo-mcp" ], "env": { "ORCHEO_API_URL": "http://localhost:8000" }, "comment": "Orcheo MCP服务器配置" } }
- '"Orcheo"': 这是您为MCP服务器起的名称,客户端将使用此名称引用它。
- '"command"': 替换为您的 'uvx' 可执行文件在系统中的完整路径(例如,在Linux/macOS上可以通过 'which uvx' 命令找到)。
- '"args"': 这是传递给 'uvx' 命令的参数列表。'--from orcheo-sdk@latest orcheo-mcp' 指示 'uvx' 运行 'orcheo-sdk' 中的 'orcheo-mcp' 模块。
- '"env"': 这是一个环境变量字典。'"ORCHEO_API_URL": "http://localhost:8000"' 告诉 'orcheo-mcp' 您的Orcheo后端API服务正在哪个地址运行。
- '"comment"': 可选的用户友好注释,帮助您理解此配置的用途。
Claude CLI 配置 (命令行命令)
claude mcp add-json Orcheo --scope user '{ "command": "/path/to/uvx", "args": [ "--from", "orcheo-sdk@latest", "orcheo-mcp" ], "env": { "ORCHEO_API_URL": "http://localhost:8000" }, "comment": "Orcheo MCP服务器配置" }'
- 'command' 和 'env' 的替换说明同上。此命令会将JSON配置添加到Claude CLI的用户范围。
Codex CLI 配置 (命令行命令)
codex add server Orcheo \ /path/to/uvx \ --from orcheo-sdk@latest orcheo-mcp \ --env ORCHEO_API_URL=http://localhost:8000 \ --comment "Orcheo MCP服务器配置"
- 'command' 和 'env' 的替换说明同上。此命令会将Orcheo服务器配置添加到Codex CLI。
基本使用方法
- 启动Orcheo后端服务:确保已按照上述安装步骤运行 'orcheo-dev-server'。
- 配置LLM客户端:根据您使用的LLM客户端(如Claude Desktop),将其配置为通过 'orcheo-mcp' 连接到Orcheo服务器。请参考上方的MCP服务器配置示例。
- 在LLM客户端中交互:现在,您的AI助手将能够:
- 发现工作流作为工具:通过聊天或命令行界面,LLM可以查询和识别Orcheo中托管的工作流作为可用的工具。
- 调用工作流:LLM可以根据工作流的定义,提供相应的输入,并触发工作流的执行。
- 获取工作流执行结果:LLM将接收工作流执行的实时更新和最终结果,以便继续其对话或任务。
信息
分类
AI与计算