使用说明:

项目简介

TEN Agent 是一个功能丰富的 AI Agent 框架,它不仅集成了 DeepSeek、Gemini、OpenAI 等多种大型语言模型,还支持实时通信(RTC)和硬件集成(如 ESP32)。其核心特性在于提供实时的语音、视觉和对话能力,并能无缝对接 Dify 和 Coze 等平台。通过模块化扩展的设计,TEN Agent 可以轻松集成 MCP 服务器,从而扩展其上下文处理和功能调用能力。

主要功能点

  • 多模态实时交互: 支持实时的语音输入、语音输出和视觉感知,实现更自然的 AI 交互体验。
  • 强大的 LLM 集成: 内置支持 Llama 4、DeepSeek、Gemini、OpenAI 等多种主流 LLM,可以灵活选择和配置。
  • MCP 服务器集成: 能够作为 MCP 客户端与 MCP 服务器无缝集成,扩展 LLM 的上下文信息和工具调用能力。
  • 丰富的扩展模块: 提供包括 Gemini Multimodal Live API、Dify、Coze 等在内的多种即插即用扩展,快速扩展 Agent 功能。
  • 灵活的部署方式: 支持 Docker 部署和多种云服务部署,方便用户快速搭建和扩展服务。
  • 可定制的 Playground: 提供 Playground 可视化界面,用户可以自定义 Agent 配置、选择模块和扩展,并进行实时测试。

安装步骤

  1. 环境准备:

    • 确保已安装 Docker 和 Docker Compose。
    • 安装 Node.js (LTS v18)。
  2. 克隆仓库:

    git clone https://github.com/TEN-framework/TEN-Agent.git
    cd TEN-Agent
  3. 配置环境变量:

    • 复制 '.env.example' 文件并重命名为 '.env'。
    • 在 '.env' 文件中配置 Agora App ID 和 App Certificate(用于实时音视频功能,可选)。
  4. 启动 Docker 容器:

    docker compose up -d
  5. 进入开发容器:

    docker exec -it ten_agent_dev bash
  6. 构建 Agent:

    task use
  7. 启动 Web 服务器:

    task run
  8. 访问 Playground:

    • 打开浏览器访问 'http://localhost:3000',即可开始配置和测试 Agent。

服务器配置

TEN Agent 本身作为一个框架,可以被配置为 MCP 服务器的客户端。以下是一个用于 MCP 客户端连接 TEN Agent 服务器的配置示例('property.json' 或客户端配置中):

{
  "server name": "TEN Agent Server",
  "command": "path/to/ten_agent_executable",
  "args": [
    "--property", "path/to/your/property.json"
  ],
  "description": "连接到本地部署的 TEN Agent 服务器",
  "notes": "请替换 'path/to/ten_agent_executable' 为 TEN Agent 启动脚本的实际路径,'path/to/your/property.json' 为你的 property.json 配置文件路径。"
}

基本使用方法

  1. 启动 Playground: 按照安装步骤启动 TEN Agent Playground。
  2. 配置 Agent: 在 Playground 界面选择和配置所需的模块(如 LLM 模型、语音识别、语音合成等)和扩展(如 MCP Server Tool)。
  3. 添加 MCP Server Tool: 在模块选择器中添加 MCP Server Tool 扩展,并填入你的 MCP 服务器 URL。
  4. 配置 API 密钥: 根据所选模块和扩展的要求,配置相应的 API 密钥(如 OpenAI API Key, Deepgram API Key 等)。
  5. 开始对话: 在 Playground 界面进行实时对话测试,体验 TEN Agent 的多模态交互能力和 MCP 集成功能。

信息

分类

AI与计算