深度学习【26】wavenet-歌声合成

论文:A NEURAL PARAMETRIC SINGING SYNTHESIZER
完整论文:A Neural Parametric Singing Synthesizer Modeling Timbre and Expression from Natural Songs

之前研究过一段时间的wavenet语音合成。第一版wavenet的一个最大的问题是合成非常耗时,但是就有尝试过各种方案,包括了一帧一帧合成的方案。奈何打开方式不对,始终没搞出来。后来看到了这篇用wavenet合成歌声的论文,竟然还是一帧一帧合成的。由于没有开源,而且现在也没事时间去做语音合成的内容,先把论文的思想记录一下。
这里写图片描述
先看看论文方法的流程图。从图上我们很明显可以看出,模型的输入是语谱图,而语谱图是语音分帧后经过短时傅里叶变换再求得的。在原始的wavenet中,模型的输入是采样点量化到0-255,然后经过一个embeding层,使得一个点变成一个向量。所以说语谱图作为模型的输入跟原始wavenet的输入是很契合的。这里我们先不关心文本特征的输入。模型的输出是一个概率分布,要获取与语音相关的特征可以从这个概率分布中采样而来。

整个模型大致与原始的wavenet一样,只是最后的输出变成了概率分布。还有一点是,论文的整个方案是要预测用于world声码其合成的bap,mgc以及voiced/unvoiced。这些的训练是分开的,也就是每个都有对应的wavenet模型,但是在预测的时候是有一定的依赖关系。这点很重要,具体可以看论文。

ok,现在来看看模型的输出。假设模型预测的是bap,那么模型最终要预测的是4个点。同时假设用的是4个混合高斯函数(每个高斯函数由4个参数描述)来模拟每个点的分布,那么最终的网络输出是4×4×4=64个节点。

论文用的概率密度叫带约束的高斯混合模型:
这里写图片描述

其中, μk

  • 2
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值