十、训练自己的TTS模型

本文详细介绍了如何从零开始训练个人专属的TTS模型,包括音频采集、降噪、分割、文本获取、数据预处理、模型训练等多个步骤,并列出在训练过程中可能遇到的错误及解决办法,最终使用PaddleSpeech和MFA完成模型构建。
摘要由CSDN通过智能技术生成

        开源项目:https://github.com/jerryuhoo/VTuberTalk
        解决错误无数多个,修改多个脚本,苦熬几昼夜,终于杀青,功成垂败。特比注意,训练样本少于500条语句,效果灰常差,可以直接放弃。

1、安装
cpu版本:如果只是单纯使用,建议安装这个版本。
conda create -n paddlespeech python=3.8
conda activate paddlespeech
pip install -r requirements_cpu.txt -i https://pypi.tuna.tsinghua.edu.cn/simple

2、安装cpu版本的paddlepaddle
# cpu 版本的示例, 需要paddle 2.3.0以上版本
python3 -m pip install paddlepaddle==2.4.2 -i https://pypi.tuna.tsinghua.edu.cn/simple
python3 -c "import paddle;paddle.utils.run_check()"

3、获取音频
从B站获取音频的方法: 可以用bilibili助手下载Vtuber的录播flv文件,再转成wav文件。
从YouTube获取音频的方法: 可以用TamperMonkey上的YouTube下载器下载mp4文件,再转成wav文件。
安装依赖库:
pip install pydub
python tools/video_to_wav.py --path <data to folder or file>
我这里使用格式工厂,可以任意格式转换,剪辑,最后直接输出data/

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
基于 Transformer 的 TTS 模型通常由三个部分组成:编码器、解码器和后处理器。以下是每个部分的详细说明: 1. 编码器 编码器将输入的文本序列转换为一个特征向量。在基于 Transformer 的 TTS 中,通常使用字符级别或子词级别的编码器。编码器的输出是一个文本特征向量,用于提取输入文本的语义信息。 2. 解码器 解码器将编码器的输出和音频编码器的输出合并,生成最终的声音信号。在基于 Transformer 的 TTS 中,解码器通常由多个 Transformer 解码器堆叠而成。每个解码器负责生成一个 Mel-spectrogram 特征,这些特征在解码器堆叠后组合成最终的 Mel-spectrogram 特征。解码器的输出是一个 Mel-spectrogram 特征序列,用于描述声音的频谱信息。 3. 后处理器 后处理器将 Mel-spectrogram 特征转换为声音信号。在基于 Transformer 的 TTS 中,通常使用 Griffin-Lim 算法或 WaveNet 算法进行后处理。Griffin-Lim 算法是一种迭代重构方法,可以将 Mel-spectrogram 特征转换为声音信号。WaveNet 算法是一种生成语音的神经网络模型,可以直接从 Mel-spectrogram 特征生成声音信号。 基于 Transformer 的 TTS 模型训练时通常使用均方误差(MSE)或交叉熵(Cross-Entropy)作为损失函数。损失函数的目标是最小化目标声音和生成声音之间的差异。在预测时,输入文本经过编码器得到文本特征向量后,可以经过解码器生成 Mel-spectrogram 特征,然后通过后处理器得到最终的声音信号。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

vandh

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值