声明:语音合成论文优选系列主要分享论文,分享论文不做直接翻译,所写的内容主要是我对论文内容的概括和个人看法。如有转载,请标注来源。
欢迎关注微信公众号:低调奋进
High Quality Streaming Speech Synthesis with Low, Sentence-Length-Independent Latency
本文为三星在interspeech 2020发表的文章,主要是实现流式语音合成,获取更小的latency,具体文章链接https://www.isca-speech.org/archive/Interspeech_2020/pdfs/2464.pdf
(看了一下,这篇文章的思想很简单,我在上一家公司就和深度学习组的同事做了相同的实现,不过实现后就处在离职交接期,我就没关注用没用到生产线上)
1 背景
现有的语音合成系统更多关注系统合成的质量和推理速度,但很少关注系统的latency,即从输入文本到听到语音之间的时间开销。目前的系统大部分为整个句子合成之后才输出,句子越长等待的时间越长,这严重影响了人机交互的体验。为了减小latency,本文提出了流模式的合成系统,无论句子多长,都可以近乎常量时间返回首段音频。
2 设计
本文是在taotron+lpcnet系统上实现,具体的实现为图1所示。在tacotron的decoder的部分添加一个buff