跨语言语音合成核心问题提出: 建模英文Mel间的smooth

0. 说明

这个问题是老师提出, 客服跨语言合成的效果不好的关键:

1. 方案一: 中国人学着发英文的音串

传统的跨语言方案, 19谷歌, CUHK, 后来的PPG等都是这个思路

缺点略(其实可以好好分析, 偷个懒......也能力还有点虚...)

2. 方案二: 英国人们说英文学着中国人的音色

2.1. 完整的PPG-Cross-Lingual-Voice-Clone方案

由于PPG和Mel的因果关系, duration和韵律信息完全不会冲突, 并且不断迭代可以收敛

不过有些麻烦, 先不做, 做一个简化版啥都不用额外做的先试试, 也就是下面的

2.2. TXT为输入Tacotron多说话人Voice Clone方案

Transfer Learning from Speaker Verification to Multispeaker TTS论文的实现代码和pretrain mode

也就是之前做的跨语言Voice Clone的实验: 

3. 方案三: 语音模型重生成(网络内部Post-Net后处理)

语音模型, 英文语音模型可以建立smooth

  1. 可能1: 在训练时故意输入不连贯的mel, 输出连贯的mel. 还真的跟语言模型的训练手段类似
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值