![【图文教程】文本转语音工具ChatTTS:一键本地安装目前最简单高效的部署方案](https://cdn.heehel.com/wp-content/uploads/2024/06/20240606030654115.jpg)
ChatTTS在语音合成效果方面达到了行业领先水平。它超越了大部分开源TTS模型,在韵律方面表现出色,为用户提供了更高质量的语音输出。无论是中文还是英文,ChatTTS都能以清晰、自然的语音为用户带来全新的听觉享受。这种卓越的音质使得ChatTTS在多个领域得到了广泛应用,并获得了用户的一致好评。
1.安装Python 和 git环境,python需要 3.9+ 版本,比如我选择python 3.10.6
然后安装下git环境
2.下载 chatTTS-ui
3.解压后在根目录下输入CMD进入终端,然后依次执行下面的安装命令:
- python –m venv venv
- .\venv\scripts\activate
- pip install –r requirements.txt
4.如果不需要CUDA加速,执行
- pip install torch==2.1.2 torchaudio==2.1.2
如果需要CUDA加速,执行
- pip install torch==2.1.2 torchaudio==2.1.2 —index–url https://download.pytorch.org/whl/cu118
如果你没有安装CUDA+ ToolKit, 可以看下这篇文章:
1.CUDA 官方安装包:【点击下载】
检查电脑是否安装 NVIDIA 驱动和CUDA
要进行验证,请打开 PowerShell 或终端并输入以下命令:
nvidia-smi
如果看到类似以下结果,则说明您已成功安装 NVIDIA 驱动程序:![]()
2.检查是否安装 CUDA
确保您已安装与 NVIDIA 驱动程序兼容的 CUDA 工具包。
要进行验证,请打开 PowerShell 或终端并输入以下命令:
- nvcc —version
如果看到类似以下结果,则说明您已成功安装 CUDA:
![]()
但是如果返回的信息是这样的:
![]()
那说明电脑上没有安装CUDA,或者没有配置到系统环境
2.添加 CUDA 到系统环境变量: 确保 CUDA 的安装目录已经添加到系统的环境变量中。你可以手动将 CUDA 的 bin 目录添加到 PATH 环境变量中。默认安装路径: CUDA 工具包通常默认安装在特定的目录中。在 Windows 上,默认路径一般是 C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA
5.最后执行 python app.py 启动,将自动打开浏览器窗口,默认地址 http://127.0.0.1:9966
(注意:默认从 modelscope 魔塔下载模型,不可使用代理下载,请关闭代理)
6.源码部署启动后,会先从 modelscope下载模型,但modelscope缺少spk_stat.pt,会报错(上面的打包链接可以下载)
下载后将该文件复制到 项目目录/models/pzc163/chatTTS/asset/ 文件夹内
注意 modelscope 仅允许中国大陆ip下载模型,如果遇到 proxy 类错误,请关闭代理。
如果你希望从 huggingface.co 下载模型,请打开 app.py 查看大约第50行-60行的注释。如果需要GPU加速,必须是英伟达显卡,并且安装 cuda版本的torch
# 默认从 modelscope 下载模型,如果想从huggingface下载模型,请将以下3行注释掉
CHATTTS_DIR = snapshot_download(‘pzc163/chatTTS’,cache_dir=MODEL_DIR)
chat = ChatTTS.Chat()
chat.load_models(source=“local”,local_path=CHATTTS_DIR)
# 如果希望从 huggingface.co下载模型,将以下注释删掉。将上方3行内容注释掉
#os.environ[‘HF_HUB_CACHE’]=MODEL_DIR
#os.environ[‘HF_ASSETS_CACHE’]=MODEL_DIR
#chat = ChatTTS.Chat()
#chat.load_models()