正则化(Regularization)

过拟合的问题

正则化通过加大对参数Θ的惩罚力度可以减轻过拟合问题。

下图左1:欠拟合(underfitting)具有高偏差(high bias)。

下图中1:合适。

下图右1:过拟合(overfitting)具有高方差(high variance)。

泛化(generalize):指假设模型能应用到新样本的能力。

在线性回归中:
在这里插入图片描述
在逻辑回归中:
在这里插入图片描述
特征维度太多,样本数据太少,过度拟合就会发生:
在这里插入图片描述
解决过度拟合方法:

1.减少特征数量(缺点:舍弃了一部分信息):
手动选择;
使用模型选择算法。

2.正则化(regularization):
保留所有的特征,但是减少参数θj的大小(magnitude/values),当我们有很多特征的时候依然工作很好,并且每个特征都对预测y有一定的贡献。
**加粗样式**

代价函数

在这里插入图片描述
在这里插入图片描述
正则化的思想:

减小高次项的θ值,使得曲线平滑(即加入惩罚项)。
加入正则项(不将 θ0 加入惩罚项,实际上加不加入影响不大)。
λ是正则化参数,保持我们能很好的拟合数据,保持参数较小从而避免过拟合。
λ不能太大(惩罚力度大),否则就是一条直线,(underfitting/too high bias),肯定也不能太小(惩罚力度小),否则就没效果了。
在这里插入图片描述
在这里插入图片描述

线性回归的正则化

基于梯度下降(gradient decent)算法下的正则化线性回归计算:

通常不将 θ0 加入惩罚项,所以排除在外。
其他相当于把 θj 减小。
在这里插入图片描述
基于正规方程(normal equation)中的正则化线性回归计算:

X:每一行代表一个单独的训练样本。
加粗样式
如果样本数量(m)小于特征数量(n)那么矩阵不逆;虽然在Octave中运用pinv函数能得到伪逆矩阵,但是不能得到较好的假设模型。

在正则化中已经考虑到这个问题,所以加入正则化项后,只要 λ>0 那么该矩阵可逆。

正则化还可以解决一些 (XTX)-1 出现不可逆的问题。
在这里插入图片描述

Logistic.回归的正则化

改进在线性回归中的两种算法,使其能够应用到正则化逻辑回归中:

在这里插入图片描述
在Octave中:

使用高级优化算法需要我们自己定义一个 costFunction 函数(在Octave中下标从1开始)。
然后将定义的函数赋给 fminunc(@costFunction,…) 函数。

在这里插入图片描述

  • 2
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值