声学模型学习笔记(七) advanced deep models

multitask and transfer learning

multitask learning:不同的任务网络,可以共享一部分网络结构(比如说某个隐层)
transfer learning:迁移学习

SHL-MDNN

这里写图片描述
shared-hidden-layer multilingual DNN,用于训练不同语言的模型,所有的模型共享同一个隐层,输出层跟语言有关。
共用的隐层可以认为是一个特征提取器,最后的输出层为分类器。
SHL-MDNN需要多个语言同时进行训练,一个mini-batch包括多个语言的训练语料。
试验表明多语言训练出来的SHL-MDNN相比单语言训练出来的DNN性能有提升,共享的隐层训练在一定程度上面减弱了overfitting问题。
隐层作为特征提取器,可以把它对音素的区分性迁移到其他语言上面。

  • 如果需要增加一种语言,只需要增加一个输出层,还是复用前面训练好的隐层,训练是固定隐层,只需要训练最后一层的参数即可
  • 如果新增语言的训练数据比较充足,整体重新训练效果更好。
  • 可以由英语迁移到中文,依然有效

RNN

RNN
LSTM

参考

《automatic speech recognition a deep learning approach》 chapter 12-15

后面的技术分享转移到微信公众号上面更新了,【欢迎扫码关注交流】

在这里插入图片描述

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值