基础算法:提升方法Adaboost

1、Adaboost算法

把训练集通过弱可学习,得到一系列的弱分类器。然后,把弱分类器,通过加权处理,组合成一个强分类器。
在提升方法中,弱可学习和强可学习是等价的。

使用分差误差率更新模型。

在这里插入图片描述
这里, α \alpha α代表组合系数,

α k ← 1 2 ln ⁡ 1 − E k E k \alpha_{k} \leftarrow \frac{1}{2} \ln \frac{1-E_{k}}{E_{k}} αk21lnEk1Ek

2、前向分步算法

每一步只学习一个基函数及系数。

3、提升树

以决策树为基函数的前向分步算法。

4、梯度下降

利用损失函数的负梯度作为残差近似值,拟合出回归树。

参考:

  1. wiki adaboost
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

rosefunR

你的赞赏是我创作的动力!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值