【正则化】—通俗易懂谈正则化:L1正则化和L2正则化

 颓废多日,终于重新回归博客,记录每天的学习or复习,每一天都要加油鸭~
 今天算是复习了一下正则化吧,主要也是这个在实习面试中也经常会被问到(一直想系统的记录下找实习的面试的坎坷历程,也记录下被问到的问题,方便后面再面试复习,但一直懒,这周我会完成吧?)

 言归正传,废话不多说,接下来复习正则化吧!说到正则化,在面试中经常会问到的就是什么是正则化?L1和L2正则化的区别?

1.为什么要正则化?

 当模型过于复杂时,容易造成过拟合,因此为了减小过拟合,要将一部分参数置为0,最直观的方法就是限制参数的个数,但这是一个NP难题,因此可以通过正则化来解决,即减小模型参数大小或参数数量,缓解过拟合

2.什么是正则化?

 通式:

在这里插入图片描述

  • 正则化项 又称惩罚项,惩罚的是模型的参数,其值恒为非负
  • λ是正则化系数,是一个超参数,调节惩罚的力度,越大则惩罚力度越大。

3.L1和L2正则化

 正则化的本质就是给参数引入一个先验分布,L1假设拉普拉斯分布,L2假设高斯分布(高斯分布听上去很高大上,其实就是正态分布)

L1:对参数

  • 1
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值