使用说明:
项目简介
TEN Agent 是一个功能丰富的 AI Agent 框架,它不仅集成了 DeepSeek、Gemini、OpenAI 等多种大型语言模型,还支持实时通信(RTC)和硬件集成(如 ESP32)。其核心特性在于提供实时的语音、视觉和对话能力,并能无缝对接 Dify 和 Coze 等平台。通过模块化扩展的设计,TEN Agent 可以轻松集成 MCP 服务器,从而扩展其上下文处理和功能调用能力。
主要功能点
- 多模态实时交互: 支持实时的语音输入、语音输出和视觉感知,实现更自然的 AI 交互体验。
- 强大的 LLM 集成: 内置支持 Llama 4、DeepSeek、Gemini、OpenAI 等多种主流 LLM,可以灵活选择和配置。
- MCP 服务器集成: 能够作为 MCP 客户端与 MCP 服务器无缝集成,扩展 LLM 的上下文信息和工具调用能力。
- 丰富的扩展模块: 提供包括 Gemini Multimodal Live API、Dify、Coze 等在内的多种即插即用扩展,快速扩展 Agent 功能。
- 灵活的部署方式: 支持 Docker 部署和多种云服务部署,方便用户快速搭建和扩展服务。
- 可定制的 Playground: 提供 Playground 可视化界面,用户可以自定义 Agent 配置、选择模块和扩展,并进行实时测试。
安装步骤
-
环境准备:
- 确保已安装 Docker 和 Docker Compose。
- 安装 Node.js (LTS v18)。
-
克隆仓库:
git clone https://github.com/TEN-framework/TEN-Agent.git cd TEN-Agent -
配置环境变量:
- 复制 '.env.example' 文件并重命名为 '.env'。
- 在 '.env' 文件中配置 Agora App ID 和 App Certificate(用于实时音视频功能,可选)。
-
启动 Docker 容器:
docker compose up -d -
进入开发容器:
docker exec -it ten_agent_dev bash -
构建 Agent:
task use -
启动 Web 服务器:
task run -
访问 Playground:
- 打开浏览器访问 'http://localhost:3000',即可开始配置和测试 Agent。
服务器配置
TEN Agent 本身作为一个框架,可以被配置为 MCP 服务器的客户端。以下是一个用于 MCP 客户端连接 TEN Agent 服务器的配置示例('property.json' 或客户端配置中):
{ "server name": "TEN Agent Server", "command": "path/to/ten_agent_executable", "args": [ "--property", "path/to/your/property.json" ], "description": "连接到本地部署的 TEN Agent 服务器", "notes": "请替换 'path/to/ten_agent_executable' 为 TEN Agent 启动脚本的实际路径,'path/to/your/property.json' 为你的 property.json 配置文件路径。" }
基本使用方法
- 启动 Playground: 按照安装步骤启动 TEN Agent Playground。
- 配置 Agent: 在 Playground 界面选择和配置所需的模块(如 LLM 模型、语音识别、语音合成等)和扩展(如 MCP Server Tool)。
- 添加 MCP Server Tool: 在模块选择器中添加 MCP Server Tool 扩展,并填入你的 MCP 服务器 URL。
- 配置 API 密钥: 根据所选模块和扩展的要求,配置相应的 API 密钥(如 OpenAI API Key, Deepgram API Key 等)。
- 开始对话: 在 Playground 界面进行实时对话测试,体验 TEN Agent 的多模态交互能力和 MCP 集成功能。
信息
分类
AI与计算