使用说明
项目简介
本项目是一个基于 Model Context Protocol (MCP) 构建的服务器,旨在作为 Cloudera Agent Studio 与支持 MCP 的大型语言模型(如 Claude)之间的桥梁。它将 Agent Studio 中的工作流和智能体管理功能转化为可由 LLM 直接调用的标准化工具。
主要功能点
本 MCP 服务器提供以下核心功能作为可调用的工具:
- 列出所有工作流: 获取 Agent Studio 中所有现有工作流的列表,包括它们的 ID 和名称,方便在客户端界面中展示或供 LLM 选择。
- 获取工作流详情: 根据工作流 ID 获取其完整的 JSON 配置信息,包括任务、智能体和流程设置等,允许 LLM 深入了解或检查特定工作流。
- 创建新工作流: 根据指定的名称和描述在 Agent Studio 中创建一个全新的空白工作流,支持自动化项目骨架搭建。
- 使工作流支持对话: 修改现有工作流,添加一个对话任务并启用对话模式,将静态工作流转变为支持持续聊天的交互体验。
- 添加管理者智能体: 为指定工作流添加一个新的管理者智能体,并将其配置为工作流的协调者,支持构建分层或委托式的工作流结构。
- 添加普通智能体: 为指定工作流添加任意数量的普通智能体,扩展工作流的执行能力,引入具有特定领域专长的智能体。
安装步骤
- 克隆仓库: 将本 GitHub 仓库克隆到您的本地机器上。
- 安装依赖: 进入仓库目录,使用 Python 包管理器(如 'uv' 或 'pip')安装所需的依赖。例如,如果您使用 'uv',可以运行 'uv sync';如果您使用 'pip',可以运行 'pip install -r requirements.txt' (如果存在requirements.txt文件,或直接安装serve.py中使用的库,例如 'requests', 'python-dotenv', 'fastmcp')。
服务器配置
本 MCP 服务器需要通过环境变量获取连接到 Cloudera Agent Studio 的信息。在将服务器添加到您的 MCP 客户端(如 Claude Desktop)配置时,需要指定启动服务器的命令和必要的环境变量。
通常,您需要在 MCP 客户端的配置文件中(例如 'claude_desktop_config.json')添加一个配置块,指定如何启动此服务器。配置示例如下(请根据您的实际路径和服务信息替换占位符):
- '"agent-studio"': 这是您为该 MCP 服务器指定的名称,客户端将使用此名称来引用它。
- '"command"': 指定用于运行服务器脚本的命令。例如,使用 'uv' 或 'python'。
- '"args"': 指定传递给命令的参数。例如,指定运行 'serve.py' 文件。这里的 '--directory' 是告诉 'uv' 在哪个目录查找脚本。
- '"env"': 一个 JSON 对象,包含服务器运行所需的环境变量。
- '"CDSW_APIV2_KEY"': 必需。您的 Cloudera Data Science Workbench (CDSW) 或 Cloudera Machine Learning (CML) 的 API v2 密钥,用于认证访问 Agent Studio API。请从您的 Cloudera 环境中获取此密钥。
- '"AGENT_STUDIO_DOMAIN"': 必需。您的 Cloudera Agent Studio 服务的完整访问地址(URL)。请从您的 Cloudera 环境中获取此地址。
请注意: 配置细节可能因您使用的 MCP 客户端而异。请参考您特定 MCP 客户端的文档了解如何添加和配置自定义 MCP 服务器。
基本使用方法
配置完成后,启动您的 MCP 客户端。客户端会自动启动并连接到本 MCP 服务器。连接成功后,您的大型语言模型将能够通过 MCP 协议发现并调用本服务器提供的工具。您可以通过自然语言向 LLM 提出请求,例如“列出我所有的 Agent Studio 工作流”或“创建一个名为‘项目规划’的新工作流”,LLM 将根据其能力和上下文决定是否调用相应的工具来完成任务。
信息
分类
AI与计算