深度学习(5):正则化

深层的神经网络往往会出现过拟合的现象,而浅层的神经网络又不能满足我们的要求。利用正则化,我们可以在不太影响偏差的基础上减少方差,更好的使用深层神经网络。
这里直观理解正则化的作用、介绍两种课上提到的正则化方法以及介绍正则化输入:

L2正则化

在原先损失函数的基础上加上lambda*||w||22/(2m),即
在这里插入图片描述
这里面L2范数的平方||w||22就是w中各项元素的平方和,lambda是一个超参数。

直观来看,此时为了让损失函数变小,我们的w就不能太大,就会出现很多节点的w值接近0。

第一种直观理解是,当w趋近0时,很多节点相当于不存在,这样相当于减少了节点个数,从而降低了深层神经网络过分强的性能。

另一种直观理解时,当w趋近0时,以tanh为例
在这里插入图片描述
激活函数倾向于中间的线性的一段,而通过之前的知识可知,线性激活函数会大大降低神经网络性能(整个网络趋于线性)。

在我看来,当发生过拟合时,往往回出现那种局部突起:
在这里插入图片描述
相当于是我们的分割平面在某些地方切线变化非常剧烈,也就是说我们的预测函数

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值