深度学习_L2正则化

参考博客

深入理解L1、L2正则化
PyTorch 实现L2正则化以及Dropout的操作

正则化介绍

正则化(Regularization)是机器学习中一种常用的技术,其主要目的是控制模型复杂度,减小过拟合。最基本的正则化方法是在原目标(代价)函数 中添加惩罚项,对复杂度高的模型进行“惩罚”。其数学表达形式为:
J ˇ ( w ; X , y ) = J ( w ; X , y ) + α Ω ( w ) \check{J}(w; X, y)=J(w; X, y) + \alpha\Omega(w) Jˇ(w;X,y)=J(w;X,y)+αΩ(w)
式中 X , y X, y X,y为训练样本和相应标签, w w w为权重系数向量; J ( ) J() J()为目标函数, Ω ( w ) \Omega(w) Ω(w)即为惩罚项, 可理解为模型"规模"的某种度量; 参数 α \alpha α控制正则化的强弱. 不同的 Ω \Omega Ω函数对权重w的最优解有不同的偏好, 因而会产生不同的正则化效果. 最常用的 Ω \Omega Ω函数有两种, 即 l 1 l_1 l1范数与 l 2 l_2 l2范数, 相应称之为 l 1 l_1 l1正则化和 l 2 l_2 l2正则化.此时有:
l 1 : Ω ( w ) = ∣ ∣ w ∣ ∣ 1 = ∑ i ∣ w i ∣ l_1: \Omega(w)=||w||_1=\sum_i|w_i| l1:Ω(w)=∣∣w1=iwi
l 2 : Ω ( w ) = ∣ ∣ w ∣ ∣ 2 = ∑ i w i 2 l_2: \Omega(w)=||w||_2=\sqrt{\sum_iw_i^2} l2:Ω(w)=∣∣w2=iwi2

正则化的实现

在Pytorch中正则化的实现只需要一行代码, 如下:

optimizer = torch.optim.SGD(model.parameters(), \
lr=config.learning_rate, momentum=0.9, weight_decay=0.000001)

在这个函数调用中 w e i g h t _ d e c a y = 0.001 weight\_decay=0.001 weight_decay=0.001就是L2范数.

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值