语音合成论文优选:Triple M: A Practical Neural Text-to-speech System With Multi-guidance Attention And Multi-

声明:语音合成论文优选系列主要分享论文,分享论文不做直接翻译,所写的内容主要是我对论文内容的概括和个人看法。如有转载,请标注来源。

欢迎关注微信公众号:低调奋进

Triple M: A Practical Neural Text-to-speech System With Multi-guidance Attention And Multi-band Multi-time Lpcnet

本文为腾讯2020.02发布的文章,文章主要使用multi-guidance attention 和multi-band multi-time lpcnet来构建对齐较优,可以处理长句子,具有较高实时率的系统。具体的文章链接

https://arxiv.org/pdf/2102.00247.pdf

(好家伙,集百家之长。先不论最终效果如何,看到这样文章还是挺有趣。)

1 背景

虽然端到端的语音合成已经很成熟,但依然存在落地难得问题,尤其是输入和输出的对齐问题。本文提出了使用forward attention和GMM-based attention作为辅助来优化base attention:LSA,使其处理长句子更加鲁棒。另外,本文同时使用multi-band和multi-time对lpcnet进行优化,从而大大提高合成速度。

2 详细设计

本文的系统如图1所示,首先训练的时候同时训练forward-attention,gmm-based attention和lsa部分,但推理的时候只使用lsa对齐。对于lpcnet的优化同时使用multi-band和multi-time对lpcnet进行优化,每一次生成8个采样点,具体的结构如图2所示。

3 实验

先看一下对齐情况,图3是本文multi-guidance attention处理长句子(200汉子)的效果,而原始的lsa是无法处理该长句子。另外如果处理长句子,使用forward-attention, gmm-attention和lsa的错误率分别40%,15%和60%。而使用本文的方案则错误率为2%。接下来table1展示了MOS的结果,本文的mos比baseline还稍微高一些。最后分析一下本文的multi-band multi-time的lpcnet,结果显示MOS微降情况下,实时率提高2.75倍。

4 总结

章主要使用multi-guidance attention 和multi-band multi-time lpcnet来构建对齐较优,可以处理长句子,具有较高实时率的系统。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

我叫永强

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值