颓废多日,终于重新回归博客,记录每天的学习or复习,每一天都要加油鸭~
今天算是复习了一下正则化吧,主要也是这个在实习面试中也经常会被问到(一直想系统的记录下找实习的面试的坎坷历程,也记录下被问到的问题,方便后面再面试复习,但一直懒,这周我会完成吧?)
言归正传,废话不多说,接下来复习正则化吧!说到正则化,在面试中经常会问到的就是什么是正则化?L1和L2正则化的区别?
1.为什么要正则化?
当模型过于复杂时,容易造成过拟合,因此为了减小过拟合,要将一部分参数置为0,最直观的方法就是限制参数的个数,但这是一个NP难题,因此可以通过正则化来解决,即减小模型参数大小或参数数量,缓解过拟合
2.什么是正则化?
通式:
- 正则化项 又称惩罚项,惩罚的是模型的参数,其值恒为非负
- λ是正则化系数,是一个超参数,调节惩罚的力度,越大则惩罚力度越大。
3.L1和L2正则化
正则化的本质就是给参数引入一个先验分布,L1假设拉普拉斯分布,L2假设高斯分布(高斯分布听上去很高大上,其实就是正态分布)
L1:对参数