机器学习、正则化(L1正则化、L2正则化)

正则化

1. 正则化介绍

正则化 (Regularization)

正则化是什么?

  • 正则化(Regularization)是一类通过限制模型复杂度,从而避免过拟合,提高泛化能力的方法

PS(
传统的机器学习中,提高泛化能力的方法主要是限制模型复杂度,比如采用ℓ1 和ℓ2 正则化等方式.

在训练深度神经网络时,特别是在过度参数化(Over-Parameterization)时,ℓ1 和ℓ2 正则化的效果往往不如浅层机器学习模型中显著.

过度参数化是指模型参数的数量远远大于训练数据的数量.因此训练深度学习模型时,往往还会使用其他的正则化方法,比如数据增强、提前停止、丢弃法、集成法等.
)

正则化干什么用?

  • 要让AI模型不过于信赖样本数据
  • 是的函数更加平滑,防止模型过拟合

小结:

为什么要正则化:让模型不要过于依赖样本数据
正则化主要思想:降低模型的复杂度
正则化主要目的:防止模型过拟合
正则化实现思路:最小化损失Loss+ 最小复杂度
正则化终极目标:提升模型泛化Generalization的能力

2. 常见正则化方法

正则化有不同的策略,目前来讲主要有参数正则化、经验正则化

参数正则的L2/L1 Regularization 范数正则化目前用的是最多的

正则化目的:对损失函数加上一个约束(也叫惩罚项),减小其解的范围

2.1 0范数

概念: L0范数是指向量中非0的元素的个数。

2.2 L1范数

概念: L1范数是指向量中各个元素绝对值之和。

对于向量:
在这里插入图片描述
对于矩阵:
在这里插入图片描述

特点:

  • ℓ1 范数.ℓ1 范数的引入通常会使得参数有一定稀疏性
  • 缺点:优化的慢
2.3 L2范数

概念: L2范数是指向量各元素的平方和然后求平方根。

对于向量:
在这里插入图片描述

对于矩阵:
在这里插入图片描述
特点:

  • 相对于L1正则化,L2正则化收敛的更加快一点。
  • L2 正则化能够得到比较小的参数,小到可以被忽略,但是无法小到0,也就不具有稀疏性
2.4 q-范数

概念: 向量元素绝对值的q次幂的累加和再1/q次幂
在这里插入图片描述

小结

不同范数q对应的曲线 :
不同范数q对应的曲线
对应三维图:
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值