语音合成论文优选:流式语音合成High Quality Streaming Speech Synthesis with Low, Sentence-Length-Independent Latency

本文介绍了三星在interspeech 2020发表的研究,旨在实现流式语音合成,以降低与句子长度无关的延迟。通过在tacotron+lpcnet系统上改进,添加缓冲区并在满足条件时进行post-net和音频合成,实现了接近常量时间的首段音频输出,优化了人机交互体验。实验表明,这种方法在保持低延迟方面效果显著。
摘要由CSDN通过智能技术生成

声明:语音合成论文优选系列主要分享论文,分享论文不做直接翻译,所写的内容主要是我对论文内容的概括和个人看法。如有转载,请标注来源。

欢迎关注微信公众号:低调奋进

High Quality Streaming Speech Synthesis with Low, Sentence-Length-Independent Latency

本文为三星在interspeech 2020发表的文章,主要是实现流式语音合成,获取更小的latency,具体文章链接https://www.isca-speech.org/archive/Interspeech_2020/pdfs/2464.pdf

(看了一下,这篇文章的思想很简单,我在上一家公司就和深度学习组的同事做了相同的实现,不过实现后就处在离职交接期,我就没关注用没用到生产线上)

1 背景

现有的语音合成系统更多关注系统合成的质量和推理速度,但很少关注系统的latency,即从输入文本到听到语音之间的时间开销。目前的系统大部分为整个句子合成之后才输出,句子越长等待的时间越长,这严重影响了人机交互的体验。为了减小latency,本文提出了流模式的合成系统,无论句子多长,都可以近乎常量时间返回首段音频。

2 设计

本文是在taotron+lpcnet系统上实现,具体的实现为图1所示。在tacotron的decoder的部分添加一个buff

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

我叫永强

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值