神经网络的优化——L2正则化

本文探讨了神经网络优化中的L2正则化,以防止过拟合并提升模型泛化能力。通过理解正则化的概念,特别是L2正则化如何使权重接近于0,来降低复杂度,从而降低过拟合风险。同时,介绍了L2正则化的实际代码实现。
摘要由CSDN通过智能技术生成

最近在学习神经网络的相关知识,希望通过写博客记录下学习时的感悟,督促、勉励自己。

正则化

关于神经网络优化的主要方面是避免神经网络的过拟合,提高模型的泛化能力,常用的方法有:L1、L2正则化,dropout、权重的初始化等。其中正则化在深度学习中的线性传播中用的最多,在反向求导的过程中起到惩罚权重的作用。
L2正则化原理其实很简单:

J=J+λ2mww2

其中λ是一个超参数,范围[0,1],m为输入batch中数据的数量,ω则是我们训练的深井网络中每一层的权重矩阵,这里进行的运算是对每一个权重矩阵进行了矩阵的2-范数运算(即每个元素的平方然后求总和)。
我们对损失函数进行了修改之后,反向传播的求导也会发生改变,对ω求导可得:
ddw(12λmW2)=λmw

然后对对应层的ω进行更新:
w=wdJdw(learning_rate)λmW(lea
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值