项目简介

Daisys MCP服务器是一个基于Model Context Protocol (MCP) 实现的应用后端,旨在将Daisys AI平台的语音合成(Text-to-Speech)和语音管理功能,以标准化、易于LLM(大型语言模型)访问的方式暴露给支持MCP协议的客户端应用(如某些AI助手、IDE插件等)。它充当LLM客户端与Daisys AI服务之间的桥梁,使得LLM能够直接调用语音能力。

主要功能点

本MCP服务器提供以下核心功能工具供LLM客户端调用:

  • 文本转语音 (text_to_speech): 将给定的文本内容转换为语音,并可选地保存为音频文件。支持指定语音ID、音频格式(wav/mp3)和输出目录,并支持流式播放。
  • 获取可用语音 (get_voices): 获取用户在Daisys平台上拥有的可用语音列表,支持按模型、性别过滤,并按名称或描述排序。
  • 获取可用模型 (get_models): 获取Daisys平台上支持的文本转语音模型列表,支持按语言过滤和按名称或显示名称排序。
  • 创建语音 (create_voice): 在Daisys平台上创建一个新的语音。
  • 删除语音 (remove_voice): 删除Daisys平台上指定的语音。

安装步骤

  1. 获取Daisys账号: 访问Daisys官网注册账号并设置用户名和密码。
  2. 克隆仓库: 打开终端,运行命令 'git clone https://github.com/daisys-ai/daisys-mcp.git'
  3. 进入目录: 'cd daisys-mcp'
  4. 安装uv: 'uv' 是一个高性能的Python包管理器。按照uv仓库的说明安装 'uv',例如使用curl命令:'curl -LsSf https://astral.sh/uv/install.sh | sh'
  5. 创建虚拟环境并安装依赖:
    uv venv
    # 激活虚拟环境:
    # source .venv/bin/activate (macOS/Linux)
    # .venv\Scripts\activate (Windows)
    uv pip install -e .

服务器配置(供MCP客户端使用)

MCP服务器通常由MCP客户端启动和管理。您需要在您的MCP客户端(如Claude Desktop, Cursor, mcp-cli, mcp-vscode等)的配置中添加一项来定义如何启动此服务器。典型的配置会包含服务器的名称、启动命令(command)、命令行参数(args)以及必要的环境变量(env)。

  • 服务器名称: 自定义一个识别名称,例如 "daisys-mcp"。
  • 启动命令 (command): 指定用于启动服务器的可执行程序,此处为 'uv'。
  • 命令行参数 (args): 提供传递给启动命令的参数,用于指示 'uv' 如何运行MCP服务器模块。通常包括 '--directory' 指定项目根目录,'run' 运行模块,'-m' 指定模块名 'daisys_mcp.server'。
  • 环境变量 (env): 配置运行服务器所需的额外信息,最重要的是您的Daisys账号凭据:'DAISYS_EMAIL' (您的Daisys邮箱) 和 'DAISYS_PASSWORD' (您的Daisys密码)。可选地,可以设置 'DAISYS_BASE_STORAGE_PATH' 来指定文件保存的基础目录,以及 'DISABLE_AUDIO_PLAYBACK' (设置为 'True')来禁用服务器端的音频播放。

请参考您的MCP客户端文档,将上述信息填入其MCP服务器配置项中。

基本使用方法

配置完成后,启动您的MCP客户端。客户端会自动尝试发现并连接已配置的MCP服务器。连接成功后,您的LLM客户端(或AI助手)将能够感知到Daisys MCP服务器提供的工具(如'text_to_speech', 'get_voices'等),并在需要时调用这些工具来执行相应的语音任务。例如,您可以直接在LLM对话中请求生成语音,LLM会通过配置好的MCP服务器调用Daisys AI的API来完成。

信息

分类

AI与计算