深度学习(5):正则化

本文介绍了深度学习中防止过拟合的正则化方法,包括L2正则化和Dropout正则化。L2正则化通过在损失函数中添加权重的L2范数项来约束权重大小,避免节点权重过大导致过拟合。Dropout正则化则在训练过程中随机失活一部分神经元,防止单一节点过度依赖。此外,还讨论了正则化输入的重要性,通过标准化输入数据改善模型训练的效率。
摘要由CSDN通过智能技术生成

深层的神经网络往往会出现过拟合的现象,而浅层的神经网络又不能满足我们的要求。利用正则化,我们可以在不太影响偏差的基础上减少方差,更好的使用深层神经网络。
这里直观理解正则化的作用、介绍两种课上提到的正则化方法以及介绍正则化输入:

L2正则化

在原先损失函数的基础上加上lambda*||w||22/(2m),即
在这里插入图片描述
这里面L2范数的平方||w||22就是w中各项元素的平方和,lambda是一个超参数。

直观来看,此时为了让损失函数变小,我们的w就不能太大,就会出现很多节点的w值接近0。

第一种直观理解是,当w趋近0时,很多节点相当于不存在,这样相当于减少了节点个数,从而降低了深层神经网络过分强的性能。

另一种直观理解时,当w趋近0时,以tanh为例
在这里插入图片描述
激活函数倾向于中间的线性的一段,而通过之前的知识可知,线性激活函数会大大降低神经网络性能(整个网络趋于线性)。

在我看来,当发生过拟合时,往往回出现那种局部突起:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值