042(11.7)初识AdaBoost


AdaBoost 即 Adaptive Boosting,通俗的讲,就是把许多“弱弱”的hypotheses(学习器)合并起来,变成很强的预测模型。

引入:bagging中原有的 Weightd Base Algorithm

首先,要说明,AdaBoost采用的是序列采样。
里面有提到自助采样和序列采样

Weightd Base 算法如下图,目的是最小化bootstrap-weighted error。

在这里插入图片描述
(每一个学习器的优化目标)

其中,u相当于是权重因子,当中第i个样本出现的次数越多的时候,那么对应的越大,表示在error function中对该样本的惩罚越多

所以,从另外一个角度来看bagging,它其实就是通过bootstrap的方式,来得到这些值(u),作为犯错样本的权重因子,再用base algorithn最小化 error function,得到不同的学习器。这个error function被称为bootstrap-weighted error。

示例如下:

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值