以L1 或者 L2 正则,约束模型参数到(0,0,0,0,0,0,……)的距离
使得模型不会过分依赖于某一个参数项,从而导致样本输入以后,过度依赖某一特征,造成模型过拟合
作图为L1正则,右图为L2正则, 可以看出,在对于模型loss等高线,同一个高度下,w1和w2有很多种选择,但是有的选择会使他们对应的点 到(0,0,0,0,0,0,……)的距离变远,从而使得正则项loss变大,总体loss变大。而当模型loss等高线同正则项loss等高线,相切时 ,二者对应的loss和最小,否则同样大的模型自身loss,会搭配上一个更大的正则项loss,导致最终总体loss变大