← 返回首页

"AI工作流"标签的搜索结果

找到 16 个结果

Orcheo (AI工作流编排平台)

Orcheo是一个支持AI助手的Model Context Protocol (MCP) 服务器,用于创建、运行和管理工作流,并向LLM提供上下文信息和功能。

TweekIT MCP 服务器

TweekIT MCP 服务器将强大的媒体处理能力转化为LLM可调用的工具和资源,使各种文件在AI工作流中变得可读可用。

CLI Agent Orchestrator (CAO)

一个轻量级系统,用于在Tmux终端中管理和协调多个AI代理会话,通过其内置的MCP服务器实现多代理协作和任务编排。

Langflow

Langflow是一个可视化构建和部署AI代理及工作流的平台,内置API和MCP服务器,能将复杂流程转化为可供LLM客户端调用的工具和上下文服务。

Pixeltable 多模态AI数据 MCP 服务器 (开发者版)

为LLM客户端提供Pixeltable多模态AI数据基础设施服务,包括数据管理、AI模型集成、动态Python执行和问题日志,助力AI工作流。

Agents Playbook

一个基于MCP协议的AI工作流编排框架,通过结构化工作流和语义搜索,为LLM提供可定制的开发任务上下文和逐步指导。

Claude自定义提示词服务器

基于MCP协议,为Claude AI提供高级提示词管理、链式工作流和模块化组织能力的后端服务器。

Intelli

构建和运行Model Context Protocol (MCP) 服务器的工具,支持数据和功能标准化暴露给LLM。

ComfyUI MCP服务器

将ComfyUI图像生成能力通过MCP协议提供给LLM客户端的服务端实现。

fast-agent MCP 应用框架

基于 Model Context Protocol (MCP) 构建 LLM 应用的高效框架,用于创建和编排 Agent、调用工具和管理上下文。

AI能力平台后端项目

一个集成了多种AI能力(模型、知识库、工具)的后端平台,使用MCP协议提供工具服务。

Pipulate工作流框架

Pipulate是一个本地优先的桌面应用框架,为AI工作流提供上下文服务,可作为轻量级MCP服务器使用。

MPT - 多模型提供器工具

MPT 是一款支持多LLM模型并行查询的工具,并可作为MCP服务器为LLM客户端提供统一接口,实现资源、工具和Prompt模板的管理。

Glif MCP Server

基于Model Context Protocol的Glif MCP服务器,提供Glif工作流、Bot管理和元数据访问功能,支持工具扩展和Prompt定制。

Docker AI Tools for Devs MCP Server

基于Docker的MCP服务器,支持Markdown提示词和Docker化工具,为LLM应用提供上下文服务。

labs ai tools for devs

Docker AI Tools for Developers是一个基于Docker容器的平台,它允许开发者使用Markdown文件定义AI工作流,并作为MCP服务器提供Prompt和工具服务。