![](https://img-blog.csdnimg.cn/20201014180756738.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
lujian1989
这个作者很懒,什么都没留下…
展开
-
ICASSP2020中语音合成部分论文阅读(未完待续)
ICASSP2020在5月份已经结束,拿到论文集后,慢慢花时间看一看同行的成果和进展,也算是汲取一点新鲜养分吧。简短介绍的同时也会附上自己粗浅鄙陋的想法。谬误良多,不吝指教。文章目录一. 综述二. 声学模型-稳定性1. 《Focusing on Attention: Prosody Transfer and Adaptative Optimization Strategy for Multi-Speaker End-to-End Speech Synthesis》一. 综述 &nbs.原创 2020-06-18 16:45:20 · 1860 阅读 · 1 评论 -
Tensorflow迁移学习加载预训练模型并修改变量shape和value的方法
迁移学习在深度学习中是经常被使用的方法,指的是在一个任务中预训练的模型被用于另一个任务的模型训练,以加快模型训练,减少资源消耗。然而网络搜索相关的话题,基本上只涉及加载预训练模型的特定变量值的方法,即不涉及预训练模型某个变量与当前任务网络对应变量shape改变的处理。在具体的语音合成多说话人模型迁移学习得到单说话人模型的任务中,就涉及到了迁移变量改变shape的情况,将解决方法如下列出。...原创 2020-02-16 21:02:56 · 3603 阅读 · 4 评论 -
【论文翻译】联合学习对齐和翻译的神经机器翻译
这篇论文在采用RNN编码器-解码器结构做端到端的神经机器翻译的基础上,使得模型可以在预测下一个词的时候,自动地搜索源句子相关的部分,这就是attention机制。 原论文链接: Neural Machine Translation by Jointly Learning to Align and Translate 最近开始研究端到端语音合成,由于Attention机制在...转载 2018-08-09 13:48:45 · 2410 阅读 · 0 评论