集成学习精讲之Boosting - SAP大神黄佳新作《零基础学机器学习》节选

Boosting的意思就是提升,这是一族通过训练弱学习模型的肌肉将其提升为强学习模型的算法。要想在机器学习竞赛中追求卓越,Boosting是一种必须的存在。这是一个属于高手的技术。在这里插入图片描述

图片来源于网上,侵删

我们分为5篇文章介绍集成学习,分别是:

  1. 集成学习基础-偏差和方差 - 戳此阅读
  2. Bagging - 戳此阅读
  3. Boosting - 戳此阅读
  4. Stacking/Blending - 戳此阅读
  5. Voting/Averaging

本节课中,书中的人物小冰将一步一步的从老师咖哥身上学到Boosting的各种方法。
在这里插入图片描述

Boosting:把模型训练的更强

Boosting的基本思路是逐步优化模型,这与Bagging不同。Bagging的思路是独立的生成很多不同的模型然后对预测结果进行集成,Boosting则是持续的通过新模型来优化同一个基模型,每一个新的弱模型加入进来的时候,就在原有模型基础上整合新模型,从而成新的基模型。而对新的基模型的训练,将一直聚集于之前模型的误差点,也就是原模型预测出错的样本(而不是像Bagging时那样随机选择样本),目标是不断减小模型的预测误差。

下面的Boosting示意图展示了这样的过程:一个拟合效果很弱的模型(左上图的水平红线),通过梯度提升,逐步形成了较接近理想拟合曲线的模型(右下图中的红线)。
在这里插入图片描述

机器学习模型Boosting的过程

梯度这个词我们再熟悉不过。在线性回归、逻辑回归和神经网络中,梯度下降是机器得以自我优化的本源。机器学习的模型内部参数在梯度下降的过程中逐渐自我更新,直到达到最优解。

而Boosting这个模型逐渐优化,自我更新的过程特别类似于梯度下降,它是把梯度下降的思路从更新模型内部参数扩展到更新模型本身。因此,可以说Boosting就是模型自身通过梯度下降自我优化的过程。

像上图所示的弱分类器,经过Boosting,逐渐的接近

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值