Transformer-TTS: Neural Speech Synthesis with Transformer Network阅读笔记

5. Transformer-TTS: Neural Speech Synthesis with Transformer Network

文章于2019年1月发表

在这里插入图片描述

Transformer-TTS可以看做Tacotron2+transformer的组合,作者认为优点主要为:

  1. 通过移除RNN结构实现并行训练,因为解码器的输入序列的帧可以并行地提供。
  2. 第二种是self-attention可以将整个序列的全局上下文映射到每个输入帧中,直接构建远程依赖关系。

主要步骤和改进:

  1. text-to-phoneme,输入为phoneme;

  2. Encoder Pre-net: 有Embedding层和三层卷积层组成;

  3. Scaled Positional Encoding: 增加可训练参数 α α α,使之能够自适应地适应编码器和解码器prenets输出的大小;
    在这里插入图片描述

  4. Transformer Encoder和Decoder,参照[Attention Is All You Need](# 4. Attention Is All You Need);

  5. Decoder Pre-net: 两个全连接层;

  6. 保留Stop Token;

相比Tacotron2,训练速度提高三四倍。

MOS值对比:

在这里插入图片描述
欢迎进群交流~

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值