项目简介
Daisys MCP服务器是一个基于Model Context Protocol (MCP) 实现的应用后端,旨在将Daisys AI平台的语音合成(Text-to-Speech)和语音管理功能,以标准化、易于LLM(大型语言模型)访问的方式暴露给支持MCP协议的客户端应用(如某些AI助手、IDE插件等)。它充当LLM客户端与Daisys AI服务之间的桥梁,使得LLM能够直接调用语音能力。
主要功能点
本MCP服务器提供以下核心功能工具供LLM客户端调用:
- 文本转语音 (text_to_speech): 将给定的文本内容转换为语音,并可选地保存为音频文件。支持指定语音ID、音频格式(wav/mp3)和输出目录,并支持流式播放。
- 获取可用语音 (get_voices): 获取用户在Daisys平台上拥有的可用语音列表,支持按模型、性别过滤,并按名称或描述排序。
- 获取可用模型 (get_models): 获取Daisys平台上支持的文本转语音模型列表,支持按语言过滤和按名称或显示名称排序。
- 创建语音 (create_voice): 在Daisys平台上创建一个新的语音。
- 删除语音 (remove_voice): 删除Daisys平台上指定的语音。
安装步骤
- 获取Daisys账号: 访问Daisys官网注册账号并设置用户名和密码。
- 克隆仓库: 打开终端,运行命令 'git clone https://github.com/daisys-ai/daisys-mcp.git'
- 进入目录: 'cd daisys-mcp'
- 安装uv: 'uv' 是一个高性能的Python包管理器。按照uv仓库的说明安装 'uv',例如使用curl命令:'curl -LsSf https://astral.sh/uv/install.sh | sh'
- 创建虚拟环境并安装依赖:
uv venv # 激活虚拟环境: # source .venv/bin/activate (macOS/Linux) # .venv\Scripts\activate (Windows) uv pip install -e .
服务器配置(供MCP客户端使用)
MCP服务器通常由MCP客户端启动和管理。您需要在您的MCP客户端(如Claude Desktop, Cursor, mcp-cli, mcp-vscode等)的配置中添加一项来定义如何启动此服务器。典型的配置会包含服务器的名称、启动命令(command)、命令行参数(args)以及必要的环境变量(env)。
- 服务器名称: 自定义一个识别名称,例如 "daisys-mcp"。
- 启动命令 (command): 指定用于启动服务器的可执行程序,此处为 'uv'。
- 命令行参数 (args): 提供传递给启动命令的参数,用于指示 'uv' 如何运行MCP服务器模块。通常包括 '--directory' 指定项目根目录,'run' 运行模块,'-m' 指定模块名 'daisys_mcp.server'。
- 环境变量 (env): 配置运行服务器所需的额外信息,最重要的是您的Daisys账号凭据:'DAISYS_EMAIL' (您的Daisys邮箱) 和 'DAISYS_PASSWORD' (您的Daisys密码)。可选地,可以设置 'DAISYS_BASE_STORAGE_PATH' 来指定文件保存的基础目录,以及 'DISABLE_AUDIO_PLAYBACK' (设置为 'True')来禁用服务器端的音频播放。
请参考您的MCP客户端文档,将上述信息填入其MCP服务器配置项中。
基本使用方法
配置完成后,启动您的MCP客户端。客户端会自动尝试发现并连接已配置的MCP服务器。连接成功后,您的LLM客户端(或AI助手)将能够感知到Daisys MCP服务器提供的工具(如'text_to_speech', 'get_voices'等),并在需要时调用这些工具来执行相应的语音任务。例如,您可以直接在LLM对话中请求生成语音,LLM会通过配置好的MCP服务器调用Daisys AI的API来完成。
信息
分类
AI与计算