对于模型加入正则化可以避免过拟合的理解
对于目标函数
z ∗ = a r g min z ∑ i = 1 m L ( y i , f ( x i ; z ) ) + λ Ω ( z ) z^*=\mathrm{arg~\displaystyle\min_{z}}\displaystyle\sum_{i=1}^{m}L(y_i,f(x_i;z))+\lambda\Omega(z) z∗=arg zmini=1∑mL(yi,f(xi;z))+λΩ(z)
第一项为拟合项,第二项为罚项(正则项), λ \lambda λ为罚参数, λ \lambda λ越大,就表示正则项要比模型训练误差更重要,也就是相比于要模型拟合我们的数据,我们更希望我们的模型能满足我们约束的Ω(w)的特性
为了更直观的感受,考虑极端的想法,当取 λ = 0 \lambda=0 λ=0,则目标函数只剩第一项拟合项,整个目标函数的最小化问题全部取决于第一项,也就是集全力使得输出和期待输出差别最小,什么时候最小呢,就是要求函数经过所有的点,即误差接近于0,此时会产生过拟合,泛化能力自然就不行了,因此我们会考虑在拟合项后面加入罚项来避免过拟合。
参考文章:https://blog.csdn.net/zouxy09/article/details/24972869