机器学习 day12(逻辑回归的梯度下降,过拟合及解决办法)

1. 逻辑回归的梯度下降
在这里插入图片描述
在这里插入图片描述

  • 与多元线性回归的梯度下降相同,Wj是指从W₁到Wj中的某一项,因为逻辑回归有多个特征(变量),所以对于每一个特征X都有对应的W。而对于每一个W,梯度下降算法在每一步都要对其进行更新,且更新W时,对b也需要同时更新
    在这里插入图片描述
  • 当把偏导数项化简后,逻辑回归的梯度下降算法和线性回归的梯度下降算法看着很类似,但他们的f(x)函数不同
  • 逻辑回归的梯度下降算法可以用学习曲线来监测算法是否收敛,也可以用向量化、特征缩放来简化算法的执行过程,提高算法的速度

2. 线性回归的过拟合
在这里插入图片描述

  • 左侧的图片是欠拟合或具有高偏差,这个模型并不能很好的拟合训练数据
  • 中间的图片是泛化良好,这个模型能很好的拟合训练数据,但并不是完美拟合训练数据中的每一个训练样本,并能对从未出现的全新示例也能做出良好的预测
  • 右侧的图片是过拟合或具有高方差,这个模型具有非常多且复杂的高阶特征,这个模型虽然完美拟合训练数据,但是对从未出现的全新示例无法做出良好的预测

3. 逻辑回归的过拟合

  • 左侧的图片是欠拟合或高偏差,这个模型并不能很好的拟合训练数据
  • 中间的图片是泛化良好,这个模型能很好的拟合训练数据,但不是完美的拟合训练数据中的每一个训练样本
  • 右侧的图片是过拟合或高方差,这个模型具有非常多且复杂的高阶特征,且这个模型能完美拟合训练数据,但对从未出现的全新示例无法做出良好的预测

4. 过拟合的解决办法
在这里插入图片描述

  • 第一个方法:收集更多的训练数据,使数据集变得更大,那么模型将变得不会那么高方差
    在这里插入图片描述
  • 第二个方法:特征选择,即减少一些特征(变量)。如果你有很多的特征,但没有足够的训练数据,那么也会导致过拟合。若使用最小的特征子集(即减少一些变量),那么可能就不再过拟合。这个方法以后会讲
  • 缺点是:会丢弃有关房屋的一些有用信息
    在这里插入图片描述
  • 第三个方法:正则化,缩小特征的参数,而不是像特征选择那样将特征的参数设置为0。通常,我们只缩小Wj,并不缩小b。
  • 优点:保留所有特征(变量),保留有关房屋的所有信息
    在这里插入图片描述
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

丿罗小黑

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值