使用说明
项目简介
NVIDIA AgentIQ 是一个旨在简化企业级智能体与数据源和工具集成的库。它支持各种智能体框架,并具备可重用性、快速开发、性能分析、可观测性和评估系统等关键特性。AgentIQ 兼容模型上下文协议 (MCP),可以作为 MCP 服务器为 LLM 客户端提供上下文服务。
主要功能点
- 框架无关性: 与任何智能体框架协同工作,无需更换现有技术栈。
- 高度可重用性: 智能体、工具和工作流组件可组合和复用,提高开发效率。
- 快速开发: 提供预构建组件,并支持定制化,加速应用开发。
- 性能分析: 提供工作流、工具和智能体级别的性能剖析,追踪tokens和时间消耗。
- 可观测性: 支持 OpenTelemetry 兼容的监控和调试工具。
- 评估系统: 内置评估工具,验证和维护智能体工作流的准确性。
- 用户界面: 提供 AgentIQ UI 界面,用于与智能体交互、可视化输出和调试工作流。
- MCP 兼容性: 兼容模型上下文协议(MCP),支持将 MCP 服务器提供的工具用作 AgentIQ 功能。
安装步骤
-
克隆仓库:
git clone https://github.com/NVIDIA/AgentIQ.git agentiq cd agentiq -
初始化和更新子模块:
git submodule update --init --recursive -
安装 Git LFS 并拉取数据:
git lfs install git lfs fetch git lfs pull -
创建 Python 虚拟环境:
uv venv --seed .venv source .venv/bin/activate -
安装 AgentIQ 库 (包含所有可选依赖):
uv sync --all-groups --all-extras或安装核心 AgentIQ (不包含插件):
uv sync -
验证安装:
aiq --version
服务器配置
AgentIQ 仓库本身提供了一个 UI Server 和 MCP Server 的实现,可以通过 'aiq' 命令行工具启动。 以下是 MCP 客户端连接 AgentIQ 服务器的配置示例 (JSON 格式):
{ "serverName": "AgentIQ MCP Server", "command": "aiq", "args": ["server", "--config_file", "path/to/your/workflow.yaml"] "parameters": { "--config_file": "指定 AgentIQ 工作流配置文件的路径" } }
基本使用方法
-
配置工作流: 创建 'workflow.yaml' 文件,定义智能体、工具和工作流。参考 'examples' 目录下的示例。
-
运行工作流: 使用 'aiq run' 命令执行工作流。
aiq run --config_file workflow.yaml --input "你的输入内容" -
使用 UI 界面 (可选): 启动 AgentIQ UI Server,通过 Web 界面与智能体交互。
aiq server --config_file workflow.yaml访问 UI 界面,开始与智能体对话和调试工作流。
信息
分类
开发者工具