【论文翻译】通过梅尔频谱预测来训练WaveNet的自然语音合成

Google Brain团队结合Tacotron和WaveNet等研究思路,增加了更多改进,最终实现了新的端到端语音合成系统Tacotron 2,达到了接近人声的效果。

原论文链接: Natural TTS Synthesis by Conditioning WaveNet on Mel Spectrogram Predictions

最近开始研究端到端语音合成。相关的论文原本准备自己翻译,看到网上已经有翻译的比较好的版本,
故转载于此,仅作重新排版和细节修改。 翻译原地址:https://my.oschina.net/stephenyng/blog/1620467

#摘要#

这篇论文描述了Tacotron 2,一个直接从文本合成语音的神经网络架构。系统由两部分构成,一个循环seq2seq结构的特征预测网络,把字符向量映射到梅尔声谱图,后接一个WaveNet模型的修订版作为声码器,把梅尔声谱图合成为时域波形。我们的模型得到了4.53的平均意见得分(MOS),而专业录制语音的MOS得分是4.58。为了验证模型设计,我们对系统的关键组件作了剥离实验研究,并且评估了使用梅尔频谱替代语言学、音长和F0特征作为WaveNet输入带来的影响。我们进一步展示了使用这种紧凑的声学中间表征可以显著地简化WaveNet架构。

#1. 介绍#
  从文本生成自然语音(语音合成,TTS)研究了几十年[1]仍然是一项有挑战的任务。这一领域的主导技术随着时代的发展不断更迭。单元挑选和拼接式合成方法,是一项把预先录制的语音波形的小片段缝合在一起的技术[2, 3],过去很多年中一直代表了最高水平。统计参数语音合成方法[4, 5, 6, 7],是直接生成语音特征的平滑轨迹,然后交由声码器来合成语音,这种方法解决了带边界人工痕迹的拼接合成方法的很多问题。然而由这些方法构造的系统生成的语音与人类语音相比,经常模糊不清并且不自然。

WaveNet [8]是时域波形的生成式模型,它生成的语音质量开始可以与真人语音媲美,该模型已经应用到一些完整的语音合成系统中 [9, 10, 11]。然而WaveNet的输入数据(语言学特征,预测的对数基频(F0),以及音素时长)却需要大量的领域专门知识才能生成,涉及复杂的文本分析系统,还要一个健壮的语音字典(发音指南)。

Tacotron [12]是一个从字符序列生成幅度谱图的seq2seq架构 [13],它仅用输入数据训练出一个单一的神经网络,用于替换语言学和声学特征的生成模块,从而简化了传统语音合成的流水线。为了最终合成出幅度谱图,Tacotron使用Griffin-Lim [14] 算法估计相位,然后施加一个短时傅里叶逆变换。作者们指出,相比WaveNet中使用的方法,Griffin-Lim算法会产生特有的人工痕迹并且合成的语音质量较低,所以这只是一个临时方法,将来要替换成神经声码器。

在这篇论文中,我们描绘一个统一的完整的神经网络语音合成方法,它集前述两种方法之长:一个seq2seq的Tacotron风格的模型 [12] 用来生成梅尔声谱图,后接一个WaveNet声码器 [10, 15] 的修订版。模型直接使用归一化的字符序列和语音波形数据进行端到端的训练,学习合成的语音的自然度接近了真人语音。

Deep Voice 3 [11]描述了一个类似的方法,然而,不同于我们的系统,它的语音自然度还不能与人类语音匹敌。Char2Wav [16]提出了另外一个类似的方法,也使用神经声码器进行端到端的TTS学习,但它使用与我们不同的中间特征表达(传统的声码器特征),并且他们的模型架构与我们迥然不同。

#2. 模型架构#
  我们提出的系统由两部分组成,如Fig.1所示:
(1)一个引入注意力机制(attention)的基于循环seq2seq的特征预测网络,用于从输入的字符序列预测梅尔频谱的帧序列;
(2)一个WaveNet网络的修订版,用于基于预测的梅尔频谱帧序列来生成时域波形样本。

![这里写图片描述](https://img-blog.csdn.net/20180805172152665?watermark/2/text/aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2x1amlhbjE5ODk=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)
##2.1 中间特征表达##

在这项研究中,我们使用低层次的声学表征:梅尔频率声谱图,来衔接系统的两个部分。梅尔声谱图通过对时域波形进行计算很容易得到,使用这样一个表征,为我们独立训练两部分组件提供了可能。梅尔频谱比波形样本更平滑,并且由于其每一帧都是对相位不变的,所以更容易用平方误差损失进行训练。

梅尔频率声谱图与线性频率声谱图,即短时傅里叶变换的振幅是相关的。从对人类听觉系统的响应测试中得到启发,梅尔频谱是对短时傅里叶变换的频率轴施加一个非线性变换,用较少的维度对频率范围进行压缩变换得到的。这个与听觉系统类似的频率刻度方法,会强调语音的低频细节,低频细节对语音的可理解度非常关键,同时淡化高频细节,而高频部分通常被磨擦声和其他爆裂噪声所主导,因此基本上在高保真处理中不需要对高频部分进行建模。正是由于具有这样的属性,基于梅尔刻度的特征表达在过去几十年一直广泛应用于语音识别中。

线性声谱图抛弃了相位信息(因此是有损的),而像Griffin-Lim [14] 这样的算法可以对抛弃的相位信息进行估计,用一个短时傅里叶逆变换就可以把线性声谱图转换成时域波形。梅尔声谱图抛弃的信息更多,因此对逆向波形合成任务提出了挑战。但是,对比WaveNet中使用的语言学和声学特征,梅尔声谱图更简单,是音频信号的更低层次的声学表征,因此使用类似WaveNet的模型构造神经声码器时,在梅尔声谱图上训练语音合成应该更直截了当。我们将会展示用WaveNet架构的修订版从梅尔声谱图可以生成高质量的音频。

##2.2 声谱图预测网络##

和Tactron中一样,使用50毫秒帧长,12.5毫秒帧移,汉宁窗截取,通过计算短时傅里叶变换(STFT)得到梅尔频谱。我们试验了5毫秒的帧移来匹配原始WaveNet的输入频率,但是时间分辨率的相应增长导致了明显更多的问题。
  
  我们使用频率范围在125赫兹到7.6K赫兹之间的80通道的梅尔滤波器组,后接对数动态范围压缩,从而把STFT幅度转换到梅尔刻度上。在进行对数压缩前,滤波器组的输出振幅被裁剪到最小值0.01以便限制其在对数域中的动态取值范围。

声谱图预测网络中,包含一个编码器和一个引入注意力(attention)机制的解码器。编码器把字符序列转换成一个隐层表征,继而解码器接受这个隐层表征用以预测声谱图。输入字符被编码成512维的字符向量,然后穿过一个3层卷积,每层卷积包含512个5x1的卷积核,即每个卷积核横跨5个字符,后接批标准化(batch normalization)[18]和ReLU激活函数。像Tacotron中一样,卷积层会对输入字符序列的长时上下文(例如N-grams)进行建模。最后一个卷积层的输出被传递给一个双向[19] LSTM [20]层用以生成编码特征,这个LSTM包含512个单元(每个方向256个单元)。

构建一个注意力网络(attention network)用以消费编码器的输出结果,解码器的每个输出步,注意力网络都将完整编码序列归纳为一个定长上下文向量。我们使用[21]中的位置敏感注意力机制,该机制对加法注意力机制[22]进行了扩展,使得可以使用之前解码器时间步的累积注意力权重作为追加特征,因此使得模型在沿着输入序列向前移动的时候保持前后一致,减少了子序列重复或者遗漏等解码处理中潜在的失败。位置特征用32个长度为31的1维卷积核卷积得出,然后把输入序列和位置特征投影到128维隐层表征后,计算出注意力概率。

解码器是一个自回归的循环神经网络,它从经过编码的输入序列预测输梅尔声谱图,一次预测一帧。上一步预测出的频谱帧首先被传入一个每层由256个隐藏ReLU单元组成的双层全连接的“pre-net”,我们发现作为一个信息瓶颈层(bottleneck),pre-net对于学习注意力是必要的。pre-net的输出和注意力上下文向量拼接在一起,传给一个两层堆叠的由1024个单元组成的单向LSTM。LSTM的输出再次和注意力上下文向量拼接在一起,然后经过一个线性变换投影来预测目标频谱帧。最后,预测的梅尔频谱帧经过一个5层卷积的“post-net”来预测一个残差叠加到卷积前的频谱帧上,用以改善频谱重构的整个过程。post-net的每层由512个5×1卷积核和一个批标准化处理组成,除了最后一层卷积,每层的批标准化处理都后接一个tanh激活函数。

我们在post-net前后对均方误差进行最小化以辅助收敛,我们还实验了用混合密度网络[23, 24]对输出结果的分布进行对数似然损失最小化,以避免假定输出分布随时间是一个常数方差,但是结果发现这样做使得训练更困难,也没能得到更好的合成样本。

并行于频谱帧的预测,解码器LSTM的输出与注意力上下文向量拼接在一起,投影成一个标量后传递给sigmoid激活函数,来预测输出序列是否已经完成的概率。预测了这一“停止标志”,在推断时允许模型动态的决策什么时候结束频谱生成,而不是在固定时长内一直生成。特别地,如果这一概率超过了阈值0.5,生成在第一帧就结束。

网络中的卷积层使用概率为0.5的dropout [25]进行正则化处理,LSTM层使用概率为0.1的zoneout [26]进行正则化处理。为了在推断时给输出结果带来些变化,概率为0.5的dropout只施加在自回归解码器的pre-net上。

与Tacotron对比,我们的模型使用更简洁的构造模块,在编码器和解码器中不使用Tacotron中的“CBHG”堆叠结构和GRU循环层,转而使用普通的LSTM和卷积层。我们没有在解码器的输出中使用“缩小因子(reduction factor)”,即每个解码步骤只关联一个单独的频谱帧。

##2.3 WaveNet 声码器##

我们使用[8]中WaveNet架构的一个修正版,把梅尔频谱特征表达逆变换为时域波形样本。和WaveNet的原架构中一样,有30个扩大卷积层,分3个循环进行,也就是说第k(k = 0 … 29)层的扩张率等于2的p次方,p等于k (mod 10)。为了使用频谱帧的12.5毫米帧移,调节堆栈只是用了2个上采样层而不是3个。

然而没有像WaveNet那样使用softmax层预测离散片段,我们借鉴了PixelCNN++ [27]和Parallel WaveNet[28],使用10元混合逻辑分布(10-component MoL)来生成频率为24k赫兹的16位深的语音样本。为了计算混合逻辑分布,WaveNet的堆叠输出传给ReLU激活函数,再连接一个线性投影层来为每一个混元预测参数(均值,对数刻度,混合权重)。损失函数使用标定真实数据的负对数似然函数计算而得。

#3. 实验 & 结果#

##3.1 构建训练##

我们的训练过程包括,首先单独训练特征预测网络,然后基于特征预测网络的输出,来训练修改版的WaveNet。

我们在单个GPU上,使用标准的最大似然训练程序来训练特征预测网络(在解码器端不是传入预测结果而是传入正确的结果,这种方法也被称为teacher-forcing),指定batch size为64,使用Adam优化器并设定参数β1=0.9,β2=0.999,epsilon = 1e−6,学习率初始值1e-3并在50000次迭代后指数下降到1e-5,使用权重为1e-6的L2正则化。

然后把特征预测网络输出的预测结果与标定数据对齐,我们使用经过对齐处理的预测结果,来训练修改过的WaveNet。也就是说,预测网络是在teacher-forcing模式下运行的,每个预测的帧数据依赖编码的输入序列和相应的标定数据声谱图中的前一帧来训练。这确保了每一个预测的帧数据恰好与目标波形样本对齐。

训练过程中,使用Adam优化器并指定参数β1=0.9,β2=0.999,epsilon=1e-8,学习率固定为1e-4,把batch size为128的批训练分布在32颗GPU上执行并同步更新,这有助于使用最近的更新来平衡整个模型的权重。所以我们在更新网络参数时采用衰减率为0.9999的指数加权平均 – 这个处理用在推断中(请参照[29])。为了加速收敛,我们用127.5的缩放因子来放大目标波形,这使得混合逻辑层的初始输出更接近最终分布。

我们在内部美式英语数据集上训练所有的模型,这个数据集包含24.6小时的一位专业女性播音员的语音数据。数据集中的所有文本都被拼写出来了,比如”16”被写成”sixteen”,即所有的模型都是在经过预标准化处理过的数据上训练的。

##3.2 评估##
  在推断阶段生成语音的时候,是没有标定数据的,所以与训练阶段的teacher-forcing做法不同,我们在解码处理中直接传入上一步的预测结果。

我们从测试数据集中随机选择了100个固定样例作为评估数据集,用这个评估数据集生成的语音发送给类似Amazon Mechanical Turk这样的打分服务团队,进行主观平均意见评分(MOS),每个评估数据至少有8个人打分,分值从1分到5分,打分间隔为0.5。每个模型的评估都是相互独立实施的,因此分配给评分人打分时,两个不同模型的输出结果不会被直接比较。

注意虽然评估数据集中的评估样本实例不包含在训练数据集中,但是两个数据集中仍然有一些重复的模式和相同的词语,与用随机词语生成的评估数据集相比,这可能会导致得到一个较高的MOS得分。但是这样做我们可以很容易与标定真实数据进行比较。因为所有参与比较的系统都在同一数据集上进行训练,所以互相比较仍然是有意义的。

![这里写图片描述](https://img-blog.csdn.net/20180806142104860?watermark/2/text/aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2x1amlhbjE5ODk=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)

表1展示了我们的方法和多个之前的系统的对比结果。为了更好的隔离使用梅尔声谱图作为特征所带来的影响,我们使用类似上文介绍的方法对WaveNet架构进行了修改,并用语言学特征训练WaveNet模型,并对其结果进行了比较。我们还比较了使用线性声谱图和Griffin-Lim合成语音的原始Tacotron模型,以及Google内部已经投入生产系统的拼接式[30]和参数式基线系统。我们发现,本次提出的系统显著优于所有其他TTS系统,其结果可以与标定真实语音相媲美。

![这里写图片描述](https://img-blog.csdn.net/20180806143105353?watermark/2/text/aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2x1amlhbjE5ODk=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)

我们还对我们系统的合成结果和标定真实语音进行了细致的对比评估,评分者被要求给出一个-3(合成结果比标定真实语音差很多)到3(合成结果比标定真实语音好很多)之间的分数。整体平均分−0.270±0.155说明评分者在很小的程度上更喜欢标定真实语音,但这个程度在统计学上是显著的。细致的剖析请参考图2。评分者的点评表明偶尔的发音错误是更喜欢标定语音的主要原因。
  
  在[11]的附件E的100句测试集中,我们做了一个单独的打分实验,取得了4.354的MOS分数。在对系统的错误模式进行手工分析中,对各类错误独立计数,其中没有句子单词重复,6句发音错误,1句跳词,23句主观认定韵律不自然,例如重音放在了错误的音节或者单词上,或者不自然的音调。有1句末端预测失败,该输入句子包含最多的字母。这些结果表明,系统能够可靠的关注到全体输入,但在韵律建模上还有改善空间。

最后,我们对使用37个新闻头条合成的语音进行了评估,以测试系统在领域外数据上的泛化能力。在这个评估中,我们的模型得到了4.148±0.124的MOS分数,而使用语言学特征训练的WaveNet得到了4.137±0.128。对两个系统生成的语音进行细致的对比评估也表明二者不分伯仲,对我们系统的偏好在统计学上是非显著的0.142±0.338。查验评分者的点评也表明我们提出的神经系统模型生成的语音更自然,更接近人类,但有时会出现发音困难,比如,处理名字时。这个结果指出了端到端方法所面临的一个挑战:模型训练需要在覆盖目标领域的数据上进行。

##3.3 剥离研究##

###3.3.1 预测特征 vs 标定真实数据###

我们模型的两部分组件是独立训练的,WaveNet组件要依赖于前一个组件的特征预测结果才能进行训练,一个可替代的方法是,使用从标定真实数据提取的梅尔声谱图来独立训练WaveNet。我们在表2展示了这种方法的可能性。

![这里写图片描述](https://img-blog.csdn.net/2018080618131672?watermark/2/text/aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2x1amlhbjE5ODk=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)

正如所料,当训练和推断使用的特征一致时性能最好,然而当用标定数据的梅尔声谱图训练而使用预测特征进行推断时,比两者互换后的得分更糟糕。这是由于预测的声谱图过于平滑,比标定数据缺失细节,特征预测网络平方误差损失优化的结果。当使用标定数据的声谱图训练时,网络没有学习到从过于平滑的特征生成高质量语音波形的方法。

###3.3.2 线性声谱图###

为了与梅尔声谱图的效果做对比,我们训练特征预测网络使其预测线性频率声谱图,这样就可以用Griffin-Lim算法对声谱图进行逆变换。
  

这里写图片描述

正如[10]中指出的,WaveNet比Griffin-Lim算法生成的语音质量高很多。但是使用线性声谱图或者梅尔声谱图却没有太大区别。这样一来,梅尔声谱图由于是一个更紧凑的表达所以使用它更好。在将来研究如何在梅尔频率通道数和语音质量(MOS)之间取得妥协将是一件有意思的工作。

###3.3.3 后处理网络###

由于预测的未来帧在被解码前不能被使用,我们在解码后使用了一个卷积后处理网络把过去帧和未来帧都包含进来以改善特征预测。然而,因为WaveNet已经包含了卷积层,可能会质疑使用WaveNet声码器的话,后处理网络是否还有必要。为了回答这个问题,我们比较了使用和不使用后处理网络的结果,不使用后处理的MOS评分只得到了4.429±0.071,而使用后处理的MOS评分是4.526±0.066,所以从经验上看后处理网络仍然是网络设计的一个重要组成部分。

###3.3.4 简化WaveNet###

WaveNet最典型的特征是它使用了扩大卷积,感受野随卷积的层数指数级增长。我们提出一个假说:由于相比语言学特征,梅尔声谱图是波形的更接近的表达,并且已经在帧序列中获取了长期依赖信息,更小感受野的更浅的网络或许也可以圆满的解决问题。我们使用不同的感受野大小和卷积层数来评估模型,以验证我们提出的假说。

![这里写图片描述](https://img-blog.csdn.net/20180806181003688?watermark/2/text/aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L2x1amlhbjE5ODk=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70)

如表4所示,我们发现,与30层卷积,256毫秒感受野的基线模型相比,卷积层减少到12层,感受野10.5毫秒时,模型仍然能生成高质量语音。这个结果确认了[9]中的观察:对于语音质量来说一个大的感受野并不是必须的。然而,我们推测正是因为选择了梅尔声谱图所以才允许了这个复杂度的降低。

另一个角度看,如果我们去除所有的扩大卷积,感受野就会比基线模型小2个数量级,尽管堆栈还是同样深,但语音质量会大幅度下降。这表明模型需要足够的时间尺度波形样本上下文才能生成高质量语音。

#4. 结论#

这篇论文对Tacotron2进行了详细描述,它是一个整合了两个组件的完全神经语音合成系统,一个是用来预测梅尔声谱图的带有注意力机制的seq2seq循环网络,另一个是WaveNet声码器的修订版本。该系统合成的语音在韵律上达到了Tacotron同等水平,同时语音质量达到了WaveNet水平。该系统可以通过数据直接训练,不需要依赖复杂的特征工程,达到了当前最佳语音质量,与人类语音的品质很接近。

#5. 致谢#

#6. 引用#

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值