使用说明

项目简介

NVIDIA AgentIQ 是一个旨在简化企业级智能体与数据源和工具集成的库。它支持各种智能体框架,并具备可重用性、快速开发、性能分析、可观测性和评估系统等关键特性。AgentIQ 兼容模型上下文协议 (MCP),可以作为 MCP 服务器为 LLM 客户端提供上下文服务。

主要功能点

  • 框架无关性: 与任何智能体框架协同工作,无需更换现有技术栈。
  • 高度可重用性: 智能体、工具和工作流组件可组合和复用,提高开发效率。
  • 快速开发: 提供预构建组件,并支持定制化,加速应用开发。
  • 性能分析: 提供工作流、工具和智能体级别的性能剖析,追踪tokens和时间消耗。
  • 可观测性: 支持 OpenTelemetry 兼容的监控和调试工具。
  • 评估系统: 内置评估工具,验证和维护智能体工作流的准确性。
  • 用户界面: 提供 AgentIQ UI 界面,用于与智能体交互、可视化输出和调试工作流。
  • MCP 兼容性: 兼容模型上下文协议(MCP),支持将 MCP 服务器提供的工具用作 AgentIQ 功能。

安装步骤

  1. 克隆仓库:

    git clone https://github.com/NVIDIA/AgentIQ.git agentiq
    cd agentiq
  2. 初始化和更新子模块:

    git submodule update --init --recursive
  3. 安装 Git LFS 并拉取数据:

    git lfs install
    git lfs fetch
    git lfs pull
  4. 创建 Python 虚拟环境:

    uv venv --seed .venv
    source .venv/bin/activate
  5. 安装 AgentIQ 库 (包含所有可选依赖):

    uv sync --all-groups --all-extras

    或安装核心 AgentIQ (不包含插件):

    uv sync
  6. 验证安装:

    aiq --version

服务器配置

AgentIQ 仓库本身提供了一个 UI Server 和 MCP Server 的实现,可以通过 'aiq' 命令行工具启动。 以下是 MCP 客户端连接 AgentIQ 服务器的配置示例 (JSON 格式):

{
  "serverName": "AgentIQ MCP Server",
  "command": "aiq",
  "args": ["server", "--config_file", "path/to/your/workflow.yaml"]
  "parameters": {
     "--config_file": "指定 AgentIQ 工作流配置文件的路径"
  }
}

基本使用方法

  1. 配置工作流: 创建 'workflow.yaml' 文件,定义智能体、工具和工作流。参考 'examples' 目录下的示例。

  2. 运行工作流: 使用 'aiq run' 命令执行工作流。

    aiq run --config_file workflow.yaml --input "你的输入内容"
  3. 使用 UI 界面 (可选): 启动 AgentIQ UI Server,通过 Web 界面与智能体交互。

    aiq server --config_file workflow.yaml

    访问 UI 界面,开始与智能体对话和调试工作流。

信息

分类

开发者工具