过拟合与正则化

过拟合

这是一个神经网络训练过程中,经常会遇到的问题,简单来说,就是模型的表现了,学习能力太强了,以至于把训练集的所有细节都记录下来了。当遇到测试集,就是之前完全没有见过的数据的时候,就会出现明显的错误。

产生原因

最本质的一个原因就是:参数过多(模型过于复杂)
其他原因就是:

  1. 测试集与训练集的分布不一样
  2. 训练集的数量太少

解决办法

针对上述原因,可以提出几种对策

  1. 降低模型复杂度,常用的有正则化。
  2. 增强训练集

范数Norm(Minkowski距离)

定义

范数是一个函数,其赋予某个向量空间中的每个向量一长度或大小。

对于零向量,其长度为0。
∥ x ∥ p = ( ∑ i = 1 n ∣ x ∣ p ) 1 p \lVert x \rVert_p = \left(\displaystyle\sum_{i=1}^n \lvert x\rvert^p\right)^{\frac{1}{p}} xp=(i=1nxp)p1

范数的性质

  • 非负性 ∥ x ∥ ≥ 0 \lVert x\rVert \ge 0 x0
  • 齐次性 ∥ c x ∥ = ∣ c ∣ ∥ x ∥ \lVert cx\rVert=\lvert c\rvert \lVert x\rVert cx=cx
  • 三角不等式 ∥ x + y ∥ ≤ ∥ x ∥ + ∥ y ∥ \lVert x + y\rVert \leq \lVert x\rVert +\Vert y\rVert x+yx+y

范数特征

  • L 0 L_0 L0范数:非零元素个数
  • L 1 L_1 L1范数:绝对值之和
  • L 2 L_2 L2范数:欧拉距离
  • L ∞ L_{\infin} L范数:绝对值最大的元素的绝对值

正则化

目标函数加上一个范数,作为惩罚项。如果一个参数越大,它就会使范数增大,即惩罚项增大。因此在范数的作用下,不少参数都在不断变小。
参数越小,说明其在神经网络中发挥的作用越小,即对最终结果的影响越小,因此可以使得模型更加简单,而且更加具有泛化能力。

正则化也是一种优胜劣汰的思想,虽然很多参数对模型都有用,但最终只有重要的参数才能被保留下来(值较大,对结果影响大),而大部分参数都被淘汰了(值很小,对结果影响不大)。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值