机器学习正则化问题

前言:

因为经常出现欠拟合和过拟合的问题,欠拟合好处理,过拟合一般有两个处理的方法:
1.减少选取的变量 模型选择算法
2.正则化 保留所有特征变量,减少量级或参数的大小(L2正则化)

正则化其实就是给目标函数增加一个惩罚项,使得模型更倾向于使用更加简单的模型,以防止过拟合

增加罚项解决过拟合(侧面看正则化的道理)

在这里插入图片描述

两个正则化:

L1正则化范数:
符合拉普拉斯分布,是不完全可微的。表现在图像上会有很多角出现。这些角和目标函数的接触机会远大于其他部分。就会造成最优值出现在坐标轴上,因此就会导致某一维的权重为0 ,产生稀疏权重矩阵,进而防止过拟合。

L2正则化范数(接下来会介绍使用):
L2范数符合高斯分布,是完全可微的。和L1相比,图像上的棱角被圆滑了很多。一般最优值不会在坐标轴上出现。在最小化正则项时,可以是参数不断趋向于0.最后会得到很小的参数。
优缺点:
1)L1会有额外的好处:L1比L2更容易获得“稀疏”解,即它求得的w(特征的权重)会有更少的非零分量。换言之,L1正则化的学习方法就是一种嵌入式的特征选择方法!

2)L1正则化的计算公式不可导,而L2正则化公式可导,因为在优化时需要计算损失函数的偏导数,所以对L2正则化损失函数的优化更加简洁。优化L1正则化的损失函数要更加复杂,而且方法也很多种。

在这里插入图片描述
右边蓝色圈起来的就是加进去的正则化项,λ 是正则化参数,可调。

求参数方法:两个

在这里插入图片描述
可以看出,正则化线性回归的梯度下降算法的变化在于,每次都在原有算法更新规则的基础上令参数值减少了一个额外的值。
我们同样也可以利用正规方程来求解正则化线性回归模型,方法如下所示:
在这里插入图片描述
图中的矩阵尺寸为在这里插入图片描述
在之前讨论过X如果是奇异矩阵不可逆正规方程就不能用了,但在这里加入一个正则项,那X必定可逆,也是很好地解决了X不可逆的问题!

  • 1
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

wujiekd

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值