深度学习剖根问底:weight decay等参数的合理解释

1:weight decay

主要为了加入正则项,防止过拟合,过拟合的导致权值会变化;

2:权值的初始化为啥使用较小的数值?

因为权值过大的话,对于sigmoid的来说,容易导致数值在饱和区,反向传播导致梯度基本的不跟新;weight decay是放在正则项(regularization)前面的一个系数正则项一般指示模型的复杂度,所以weight decay的作用是调节模型复杂度对损失函数的影响,若weight decay很大,则复杂的模型损失函数的值也就大。

3:RMSProp方法是在限制了权值的波动范围,momentum是加速了梯度下降的方向,adam方法是以上两种方法的组合;

4:防止过拟合的方法

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值