神经网络L2正则化的应用

加入正则化目的:防止过拟合
本质原理:将权重W乘上一个小于1的系数, 减小权重,简化网络。(因为过拟合的原因就是网络复杂,模型学到了一些催毛求疵的东西。。。)

证明:
step1:设模型损失函数值为J(w, b):
在这里插入图片描述

step2:加入正则化后损失函数值改变为 :
在这里插入图片描述
其中λ为正则化系数,是在验证模型效果后需要调节的超参数,那么为什么分母有个‘2’呢,你往下看step5, 加了这个‘2’后step5的求导结果就少了个数字了,只是为了求导的计算方便。
图中黑红为下标为2,其实按照吴恩达老师的理解来所不太正确,应该下标是F,他是另一个范数。为了简单理解,这里我写的为2, 个人感觉知道什么含义就好了,想弄懂的请看吴恩达deeplearningAI第二课正则化那节。

step3:假设原损失函数对W求导为:
在这里插入图片描述

step4:则权重W更新公式为:
在这里插入图片描述

step5:加入L2正则化的损失函数对W求导为:
在这里插入图片描述
其中λ/m*W 是step2加入的 ‘正则化项’ 求导而得。

step6:则权重W更新公式为:
在这里插入图片描述

通过上式红色波浪明显看出,加入正则化后W更新时乘了一个小于1的数(因为m一般情况下很大),W变小,则权重W对于神经网络的影响变小了。
为了通俗易懂的解释上句话,请看下图,你也就懂了开篇的本质原理了:
在这里插入图片描述
其中蓝色×代表因加入正则化导致权重W接近于0, 所以整体神经网络变得简单,防止了过拟合。

以上根据吴恩达老师deeplearningAI第二课总结, 不懂或者有想法欢迎提问!

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值