李宏毅机器学习11—Tips for training DNN2

本文介绍了在深度学习模型训练过程中,如何改善模型性能,如使用RmsProp、Momentum和Adam优化算法来调整学习率。此外,还探讨了在测试数据上表现差时的解决方案,包括早停策略、正则化以及Dropout技术的应用,以防止过拟合并提高模型泛化能力。
摘要由CSDN通过智能技术生成

接上篇,当训练模型表现差时,还可以改变学习率。

之前讲过的adagrad算法

w2在竖直方向上,因为梯度比较大,比较陡峭,所以就选用比较小的学习率

w1在横方向上,因为梯度比较小,比较平缓,所以就选用比较大的学习率。


但是实际情况比这复杂很多,

当遇到上图这种情况时,同一个方向,不同地方的梯度变化也是不一样的,也需要学习率快速变化。这个时候就需要RmsProp。

 

RmsProp算法

用学习率 η除以σσ0就是第一次gradient的值g0。第二次,算出一个新的gradien g1,此时,新的σ1就是原来的σ0的平方乘以α,再加上(1-α)乘以g1的平方。最后开根方。α可以自己调整。当α较小时,1-α更大,表示更倾向于相信新的梯度,反之同理。

 

通常卡主的位置

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值