使用说明
项目简介
Chatty MCP 是一个实现了 Model Context Protocol (MCP) 的服务器,其核心功能是将编辑器或IDE的操作和AI助手的响应通过语音播报出来。它旨在为开发者提供一种新的交互方式,尤其是在等待 AI 处理请求时,可以通过听觉感知工作进度和结果,无需一直盯着屏幕。
主要功能点
- 语音反馈: 将编辑器操作(例如代码生成、修改等)的结果通过文字转语音(TTS)技术进行播报,让用户通过听觉了解AI助手的工作进展和输出内容。
- 多种 TTS 引擎支持: 支持系统自带的 TTS 引擎以及更自然的 Kokoro TTS 引擎,用户可以根据需求选择。 Kokoro TTS 还支持流式播放,可以更快地听到语音反馈。
- 可定制的语音参数: 允许用户自定义语音的引擎、语速、音量和声音,以满足个性化需求。
- MCP 服务器: 作为一个标准的 MCP 服务器,可以与任何支持 MCP 协议的客户端(如 Cursor, Cline 等编辑器)集成。
- 易于配置: 提供了简单的命令行参数配置和示例的 Cursor MCP 服务器配置,方便用户快速上手。
安装步骤
-
环境准备: 确保你的系统已安装 Python 3.7 或更高版本。建议使用虚拟环境 (venv 或 conda) 来管理项目依赖。
-
安装依赖: 在项目根目录下,打开终端并执行以下命令安装所需的 Python 包:
pip install mcp kokoro-onnx sounddevice soundfile numpy如果计划使用 Kokoro TTS 引擎,还需要额外下载 Kokoro 模型文件,具体步骤请参考项目文档或 README 中的指引。对于 Linux 系统,可能还需要安装 'portaudio19-dev':
sudo apt-get install portaudio19-dev -
启动服务器: 在项目根目录下,使用以下命令启动 Chatty MCP 服务器。你可以根据需要选择不同的 TTS 引擎和配置参数。
-
使用系统 TTS 引擎 (默认):
python chatty.py -
使用 Kokoro TTS 引擎 (需要下载模型文件):
python chatty.py --engine kokoro -
使用 Kokoro TTS 流式模式:
python chatty.py --engine kokoro --streaming -
自定义语音、语速和音量:
python chatty.py --engine kokoro --voice af_sarah --speed 1.2 --volume 0.8 -
查看更多参数选项:
python chatty.py --help
-
服务器配置
对于 MCP 客户端(例如 Cursor 编辑器),你需要配置连接到 Chatty MCP 服务器。以下是一个 Cursor 编辑器的 MCP 服务器配置示例,将其添加到 Cursor 的设置 (settings.json) 文件中:
{ "mcpServers": { "chatty": { "command": "uv", "args": [ "tool", "--directory", "~", "run", "chatty-mcp", "--engine", "kokoro", "--streaming", "--voice", "af_sarah", "--speed", "1.2", "--volume", "0.8" ], "description": "Chatty MCP server" } } }
参数注释:
- '"chatty"': 服务器名称,可以自定义。
- '"command": "uv"': 启动命令,这里假设你使用 'uv' (一个 Python 包安装和运行工具) 来运行 'chatty.py'。如果直接使用 'python' 运行,则将 'command' 修改为 '"python"'。
- '"args"': 启动参数列表。
- '"tool"': 'uv tool' 的子命令,用于运行工具脚本。
- '"--directory", "~"': 指定工作目录为用户家目录。确保 'chatty.py' 脚本在 Python 的模块搜索路径中,或者使用绝对路径。更推荐的做法是将 'chatty.py' 脚本放在用户家目录下的某个位置,然后将 '"--directory"' 指向该位置。如果直接在 'chatty-mcp' 仓库根目录运行,可以将 '"--directory", "~"' 修改为 '"--directory", "."' 或者直接删除 '--directory' 参数。
- '"run", "chatty-mcp"': 使用 'uv run' 运行 'chatty-mcp' 脚本。这里 'chatty-mcp' 实际上会执行 'chatty.py' 文件(因为仓库根目录下的 'pyproject.toml' 文件中配置了 '[tool.uv.scripts]' 部分,将 'chatty-mcp' 关联到 'chatty.py')。如果直接使用 'python' 命令,则 'command' 为 '"python"','args' 应该修改为 '["chatty.py", "--engine", "kokoro", "--streaming", "--voice", "af_sarah", "--speed", "1.2", "--volume", "0.8"]',并且不需要 '"tool"', '"--directory"', '"run"' 这些参数。
- '"--engine", "kokoro"': 指定使用 Kokoro TTS 引擎。可以替换为 '"system"' 使用系统 TTS 引擎。
- '"--streaming"': 启用 Kokoro TTS 流式模式。
- '"--voice", "af_sarah"': 设置 Kokoro TTS 使用的声音。
- '"--speed", "1.2"': 设置语速为 1.2 倍。
- '"--volume", "0.8"': 设置音量为 0.8。
- '"description": "Chatty MCP server"': 服务器描述,用于在客户端界面显示。
请根据你的实际 Python 环境和偏好配置 'command' 和 'args'。
基本使用方法
- 启动 Chatty MCP 服务器。
- 在支持 MCP 的编辑器(如 Cursor)中配置并连接到 Chatty MCP 服务器。
- 在编辑器中执行 AI 相关的操作(例如代码生成、修改等)。
- Chatty MCP 服务器会将操作结果通过语音播报出来。
注意
- 使用 Kokoro TTS 引擎前,请务必按照 README 中的指引下载 Kokoro 模型文件,并放置在正确的位置。
- 确保你的系统支持音频播放,并且已安装必要的音频库 (如 'sounddevice')。
信息
分类
开发者工具