l2高斯分布_浅谈为什么L2正则化有效

L2正则化在机器学习中用于缓解过拟合,其有效性可以从概率论角度理解。通过假设参数服从高斯分布,L2正则化等价于最大后验概率估计。当数据量不足时,先验假设有助于模型拟合,而随着数据量增加,模型可以从数据中学习。调整正则化因子可平衡欠拟合与过拟合。
摘要由CSDN通过智能技术生成

L2正则化为什么有效

无论是学过机器学习还是深度学习的同学一定知道正则化可以缓解过拟合,最常用的就是L2正则化,即在损失函数

equation?tex=J%28%5Ctheta%29上加上参数的L2范数

equation?tex=%5Clambda%7C%7C%5Ctheta%7C%7C_%7B2%7D,不过一般也不开根号了,也就是直接加

equation?tex=%5Clambda%5Csum%5Climits_%7Bi%7D%5Ctheta_%7Bi%7D%5E%7B2%7D

equation?tex=%5Clambda是正则化因子,它的大小决定了你有多想让参数向0靠近。

如果被问到缓解过拟合的方法,那么L2正则化肯定是要知道的。如果继续追问为什么L2正则化有效呢?也许可以回答:因为把参数加到了损失函数里,可以在梯度下降时让参数变得更小,防止模型能够拟合特别复杂的函数。但又要问了,那为什么参数小得接近0就有效呢?仅仅是intuition所以大家都这样做也这样认为吗?事实上这是可以从概率论的角度来解释的,下面用最简单的线性回归来介绍,我们用下标

equation?tex=j表示第

equation?tex=j个特征,上标

equation?tex=%5Cleft%28i%5Cright%29表示数据集中的第

equation?tex=i条数据。

高斯分布

设模型参数为

equation?tex=%5Ctheta(bias包含在

equation?tex=%5Ctheta_%7B0%7D%3Db%2Cx_%7B0%7D%3D1里了),模型的hypothesis为

equation?tex=%5Chat%7By%7D+%3D+%5Ctheta%5E%7BT%7Dx+%5C%5C

equation?tex=%5Chat%7By%7D就是我们模型做出的预测,

equation?tex=y是现实世界真实的标签,不过

equation?tex=y是带有噪音的,真实世界的数据不可能是完美的,其中大都夹杂着噪音信号,我们假设

equation?tex=y+%3D+%5Ctheta%5E%7BT%7Dx+%2B+%5Cepsilon+%5C%5C

其中

equation?tex=%5Cepsilon代表着噪音,假设它属于高斯分布

equation?tex=%5Cepsilon+%5Csim+%5Cmathcal%7BN%7D%5Cleft%280%2C+%5Csigma%5E%7B2%7D%5Cright%29,即均值为0,方差为

equation?tex=%5Csigma%5E%7B2%7D,这个假设其实是符合实际的,因为现实世界中我们遇到的大部分的数据或噪音的分布其实都是高斯分布,那么我们就可以得到

equation?tex=y的分布了

equation?tex=y%3D%5Ctheta%5E%7BT%7D+x+%2B%5Cepsilon+%5CRightarrow+y+%5Csim+%5Cmathcal%7BN%7D%5Cleft%28%5Ctheta%5E%7BT%7Dx%2C+%5Csigma%5E%7B2%7D%5Cright%29+%5C%5C

本科的概率论课程告诉我们正态分布

equation?tex=x%5Csim+%5Cmathcal%7BN%7D%5Cleft%28%5Cmu%2C%5Csigma%5E%7B2%7D%5Cright%29的公式是

equation?tex=p%28x%29%3D%5Cfrac%7B1%7D%7B%5Csqrt%7B2+%5Cpi+%7D%5Csigma%7D+%5Cexp+%5Cleft%28-%5Cfrac%7B%28x-%5Cmu%29%5E%7B2%7D%7D%7B2+%5Csigma%5E%7B2%7D%7D%5Cright%29+%5C%5C

极大似然估计

假设我们有一堆数据

equation?tex=%28x%5E%7B%28i%29%7D%2Cy%5E%7B%28i%29%7D%29%2Ci%3D1%2C2...%2Cm,频率学派认为

equation?tex=%5Ctheta是客观存在的,只是我们不知道罢了,真实的

equation?tex=%5Ctheta一定是最优的,能让这组数据集

equation?tex=S出现的概率最大,我们要去手上已知的

equation?tex=S去估计真实的

equation?tex=%5Ctheta,也就要求

equation?tex=%5Ctheta的极大似然估计

equation?tex=%5Chat%5Ctheta

equation?tex=%5Chat%5Ctheta%3D%5Cunderset%7B%5Ctheta%7D%7B%5Coperatorname%7Bargmax%7D%7D+~p%28S%7C%5Ctheta%29%3D%5Cunderset%7B%5Ctheta%7D%7B%5Coperatorname%7Bargmax%7D%7D%5Cprod_%7Bi%3D1%7D%5E%7Bm%7D+p%5Cleft%28y%5E%7B%28i%29%7D+%7C+x%5E%7B%28i%29%7D%3B%5Ctheta%5Cright%29+%5C%5C

这等价于求对数极大似然,即

equation?tex=%5Chat%5Ctheta%3D%5Cunderset%7B%5Ctheta%7D%7B%5Coperatorname%7Bargmax%7D%7D%5Csum_%7Bi%3D1%7D%5E%7Bm%7D%5Ctext%7Blog%7D~p%5Cleft%28y%5E%7B%28i%29%7D+%7C+x%5E%7B%28i%29%7D%3B%5Ctheta%5Cright%29+%5C%5C

将数据集代入上式,求导取一阶导数为0,就可以得到一个local optimal,在线性回归或logistic回归里也可以确定这就是全局唯一的optimal,即最优解。如果我们将上面的

equation?tex=y%5E%7B%28i%29%7D+%7C+x%5E%7B%28i%29%7D%3B%5Ctheta+%5Csim+%5Cmathcal%7BN%7D%28%5Ctheta%5E%7BT%7Dx%5E%7B%28i%29%7D%2C%5Csigma%5E%7B2%7D%29与正态分布公式代入,可以得到

equation?tex=%5Cbegin%7Balign%7D+%5Chat%5Ctheta+%26%3D+%5Cunderset%7B%5Ctheta%7D%7B%5Coperatorname%7Bargmax%7D%7D%5Csum_%7Bi%3D1%7D%5E%7Bm%7D%5Ctext%7Blog%7D~%5Cfrac%7B1%7D%7B%5Csqrt%7B2+%5Cpi+%7D%5Csigma%7D+%5Cexp+%5Cleft%28-%5Cfrac%7B%28y%5E%7B%28i%29%7D-%5Ctheta%5E%7BT%7Dx%5E%7B%28i%29%7D%29%5E%7B2%7D%7D%7B2+%5Csigma%5E%7B2%7D%7D%5Cright%29+%5C%5C+%26%3D%5Cunderset%7B%5Ctheta%7D%7B%5Coperatorname%7Bargmax%7D%7D~m%5Ctext%7Blog%7D%7B%5Cfrac%7B1%7D%7B%5Csqrt%7B2%5Cpi%7D%5Csigma%7D%7D%2B%5Csum_%7Bi%3D1%7D%5E%7Bm%7D-%5Cfrac%7B%28y%5E%7B%28i%29%7D-%5Ctheta%5E%7BT%7Dx%5E%7B%28i%29%7D%29%5E%7B2%7D%7D%7B2+%5Csigma%5E%7B2%7D%7D%5C%5C+%26%3D%5Cunderset%7B%5Ctheta%7D%7B%5Coperatorname%7Bargmin%7D%7D%5Csum_%7Bi%3D1%7D%5E%7Bm%7D%28y%5E%7B%28i%29%7D-%5Ctheta%5E%7BT%7Dx%5E%7B%28i%29%7D%29%5E%7B2%7D+%5Cend%7Balign%7D+%5C%5C

由于我们所求的是

equation?tex=argmax,即要找到能使式子最大或最小的

equation?tex=%5Ctheta,所以常数项和系数都不会影响结果,因此第三步将它们略去后我们就得到了熟悉的最小均方误差,也就是线性回归中的最小二乘法!不过要注意,虽然得到的结果与最小二乘法是一致的,但出发点和理论基础都完全不一样。

从频率学派的假设出发,我们得到的是不带正则化项的线性回归,而从贝叶斯学派的角度来看,却有些不同。

极大后验概率估计

贝叶斯学派则是先给

equation?tex=%5Ctheta的分布来一个假设

equation?tex=%5Ctheta+%5Csim+%5Ctext%7Bsome+distribution%7D,叫做"prior"即先验,颇有点全知全能的上帝的感觉(误,那么我们现在已经看到了数据

equation?tex=S,也有了

equation?tex=%5Ctheta分布的假设,就可以去求在已知当前数据情况下,

equation?tex=%5Ctheta是什么的概率,并找出最可能的

equation?tex=%5Ctheta,根据贝叶斯定理可得

equation?tex=p%28%5Ctheta%7CS%29+%3D+%5Cfrac%7Bp%28S%7C%5Ctheta%29p%28%5Ctheta%29%7D%7Bp%28S%29%7D+%5C%5C

右式的分母是个常数,可以省去,它被称为"evidence",左式被称为"posterior"即后验,剩下的

equation?tex=p%28S%7C%5Ctheta%29是我们熟悉的"likelihood"即似然,那么接下来就是通过求最大后验概率,来获得我们想要的

equation?tex=%5Chat%7B%5Ctheta%7D,在这里我们假设先验分布

equation?tex=%5Ctheta+%5Csim+%5Cmathcal%7BN%7D%5Cleft%280%2C+%5Csigma%5E%7B2%7D%5Cright%29

equation?tex=%5Cbegin%7Balign%7D+%5Chat%5Ctheta+%3D+%5Cunderset%7B%5Ctheta%7D%7B%5Coperatorname%7Bargmax%7D%7D~p%28%5Ctheta%7CS%29+%26%3D+%5Cunderset%7B%5Ctheta%7D%7B%5Coperatorname%7Bargmax%7D%7D~%7Bp%28S%7C%5Ctheta%29p%28%5Ctheta%29%7D+%5C%5C+%26%3D%5Cunderset%7B%5Ctheta%7D%7B%5Coperatorname%7Bargmax%7D%7D~%5Ctext%7Blog%7D~p%28S%7C%5Ctheta%29+%2B+%5Ctext%7Blog%7D~p%28%5Ctheta%29%5C%5C+%26%3D%5Cunderset%7B%5Ctheta%7D%7B%5Coperatorname%7Bargmax%7D%7D~%5Csum_%7Bi%3D1%7D%5E%7Bm%7D%5Ctext%7Blog%7D~%5Cfrac%7B1%7D%7B%5Csqrt%7B2+%5Cpi+%7D%5Csigma%7D+%5Cexp+%5Cleft%28-%5Cfrac%7B%28y%5E%7B%28i%29%7D-%5Ctheta%5E%7BT%7Dx%5E%7B%28i%29%7D%29%5E%7B2%7D%7D%7B2+%5Csigma%5E%7B2%7D%7D%5Cright%29+%2B+%5Ctext%7Blog%7D~%5Cfrac%7B1%7D%7B%5Csqrt%7B2+%5Cpi+%7D%5Csigma%7D+%5Cexp+%5Cleft%28-%5Cfrac%7B%28%5Ctheta-0%29%5E%7B2%7D%7D%7B2+%5Csigma%5E%7B2%7D%7D%5Cright%29%5C%5C+%26%3D%5Cunderset%7B%5Ctheta%7D%7B%5Coperatorname%7Bargmin%7D%7D%5Csum_%7Bi%3D1%7D%5E%7Bm%7D%28y%5E%7B%28i%29%7D-%5Ctheta%5E%7BT%7Dx%5E%7B%28i%29%7D%29%5E%7B2%7D+%2B+%5Ctheta%5E%7B2%7D+%5Cend%7Balign%7D+%5C%5C

这样我们就得到了最小均方误差+L2正则化的线性回归了!注意上式的两个分布的方差是不同的,不过由于方差无关紧要,也就没有特意区分了(其实是码公式太累不想区分了_(:з」∠)_

原来从概率论的角度来看,L2正则化其实就是假设了参数的分布属于高斯分布,再想想由于高斯分布的均值为0,自然也就解释了为什么参数都会接近0,毕竟0的概率最大。如果你给

equation?tex=%5Ctheta假设不同的先验分布,比如拉普拉斯分布

equation?tex=f%28x%29%3D%5Cfrac%7B1%7D%7B2+%5Clambda%7D+e%5E%7B-%5Cfrac%7B%7Cx-%5Cmu%7C%7D%7B%5Clambda%7D%7D+%5C%5C

那你得到的就是「L1正则化」,这里就不再推导了。

结论

这样我们得到了结论,最小均方误差其实等价于「极大似然估计」,「L2正则化」+最小均方误差等价于「最大后验估计」。

进一步思考

可能有人会问,假设参数确实不属于高斯分布,那我这么假设岂不是从开头就错了,确实,如果参数的真实分布与我们的先验假设有很大差别,会导致模型的预测效果很差,这点在cs229的Gaussian Discriminant Analysis(GDA, 高斯判别分析)一课有讲过,当你的数据量很少时,加一个先验假设可以帮助模型更好的拟合数据,因为你给模型提供了更多信息,前提是你的假设是对的,当你的数据量很多时,先验假设就不那么重要了,因为模型可以自己去从数据中发现信息,这也就解释了为什么数据量越大,越不容易过拟合。如果数据量很小,直接使用极大似然估计,就会导致参数只适用于当前的数据集,导致过拟合,泛化能力较差。不过,就像Andrew Ng所说,这个世界大部分的数据分布都是高斯分布,大量论文实验也证明了L2正则化确实有效,所以我们基本上任何时候都可以大胆地使用L2正则化,只需要调节正则化因子

equation?tex=%5Clambda的大小,当模型欠拟合时调小它甚至置零,过拟合时调大它,就能够很好地在high bias(欠拟合)与high variance(过拟合)之间进行trade off。

参考资料: cs229 by Andrew Ng

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值