机器学习和深度学习中,L2正则化为什么能防止过拟合?

L2正则化通过降低模型复杂度来防止过拟合,它类似于傅里叶变换,减少模型对高频细节的依赖。在深度学习中,正则化确保损失函数较小的同时,权重参数总和尽可能小,从而提取主要特征,避免过拟合。稀疏编码也在这一过程中起作用,寻找使大部分权重为0或接近0的系数组合,只保留关键特征。
摘要由CSDN通过智能技术生成

正则化是为了降低模型的复杂度,模型过于复杂,则过拟合;

与傅里叶变换类似,高频的部分表示细节,尽量减少高频部分的影响;

傅里叶级数也是,高阶表示细节;

当阶数较高时,在不降低拟合结果的前提下,降低高阶项的系数;

高阶部分的系数会很小,但不一定是0,所以用0-范数不合适,用1-范数或2-范数。

对于多项式拟合,也可以用稀疏编码来解释,这里的基向量就是{ {x^{n}}},找出一组系数{ a_{n}},使得系数{ a_{n}}的大多数项都是0或接近于0,只有少数项远大于0. 低阶项表示多项式的大概形状,高阶项表

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值