Curriculum Learning 文献阅读笔记ICML_2009

45 篇文章 55 订阅 ¥19.90 ¥99.00
45 篇文章 4 订阅 ¥19.90 ¥99.00
本文是关于ICML 2009上的一篇关于Curriculum Learning的文献阅读笔记。作者探讨了人类循序渐进的学习方式如何应用于深度神经网络训练,提出课程学习策略能加速收敛并提高模型精度。文章通过不同实验,包括凸优化任务、形状识别和语言模型,证明课程学习的有效性,并展示了其正则化作用。
摘要由CSDN通过智能技术生成

人类学习时,不是杂乱的学习,而是循序渐进的,先学习简单的再学习难的。所以作者提出了这样的训练策略,命名为课程学习。作者假设这样的训练方法可以加快训练的收敛速度,提高模型精度。即:非凸函数全局优化的一种策略。

1)贡献:

作者试图解释为什么以及什么时候这种学习策略是有效的。1、作者在不同的任务上进行了验证。2、提出了假设去解释为什么有效。3、实验结果表明课程学习起着正则化的作用。4、在凸优化任务上,课程学习也加快了向全局最优的收敛速度。

2)作者介绍了深度神经网络以及训练上的困难。

一些研究方法使用无监督预训练作为初始化,以便得到更好的结果。作者表示,课程学习类似无监督的预训练:可以得到更好的局部最优、同时作为一种正则。

3)一个课程为一种连续方法

连续方法在1980年提出,用于解决非凸优化问题。已经应用在计算化学问题中。对于一个优化问题Cλ(λ 参数反映了优化问题难易程度),先优化一个较为平滑的目标C0​,然后逐渐增加λ 并且保持θ 是Cλ的局部最优,最终C1​就是实际想要优化的问题。所以连续方法就是引入了一个训练序列:从简单的优化问题,逐渐过渡到要训练的问题。

理解:高中类别。目标是学完高中三年所有的知识。那么先学习简单的高一的,然后学习(高一+

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

yang_daxia

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值