[论文解读]Scheduled Sampling for Sequence Prediction with Recurrent Neural Networks

来源:NIPS 2015
本文介绍了decode时采样的一种新方法,称为“curriculum learning”(课程学习),对应的采样方法叫做“scheduled sampling”(计划采样)。

  • 传统方法的问题:传统的神经网络训练时和预测时的输入不一样。
    这里写图片描述
    比如对于上图这种网络结构,训练时上一步的y是真实序列标记,然后做为输入到下一步,而预测时上一步的y是模型的输出,然后再做为下一步的输入。这种训练和预测时输入的差异导致了一个问题:当在某一步做出一个错误选择后,后面可能会产生累积错误。因为训练和预测时的前一输入的选择不同,导致可能会出现预测时产生的序列在训练过程中从没有出现过,导致预测时模型不知道如何选择。基于此,作者提出尽量让训练和预测过程一致的“课程学习”

  • “课程学习”和”计划采样“
    这里写图片描述
    课程学习如上图所示,训练时网络将不再完全采用真实序列标记做为下一步的输入,而是以一个概率p选择真实标记,以1-p选择模型自身的输出。“计划采样”即p的大小在训练过程中是变化的,就像学习率一样。作者的思想是:一开始网络训练不充分,那么p尽量选大值,即尽量使用真实标记。然后随着训练的进行,模型训练越来越充分,这时p也要减小,即尽量选择模型自己的输出。这样就尽量使模型训练和预测保持一致。
    p随训练次数的变化方式有如下选择:
    这里写图片描述

  • 实验
    本文提出的想法在image captioning,Constituency Parsing,speech Recognition等任务上较之前的成果取得了一定improve。

paper地址:http://papers.nips.cc/paper/5956-scheduled-sampling-for-sequence-prediction-with-recurrent-neural-networks.pdf

  • 4
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值