adaboost的理解和复习

本文深入探讨Adaboost算法,包括其Boosting思想,强调如何通过调整错误样本权重提升模型预测能力。文章详细阐述了训练阶段与投票阶段的原理,并从梯度下降角度解析了Adaboost的损失函数和基学习器选择。
摘要由CSDN通过智能技术生成

本文主要是对adaboost的复习,把adaboost知识结构化,温故而知新~

1、adaboost引出思想

Boosting思想

  • 串行,根据上一轮基学习器学习的结果,来优化下一轮学习的样本权重

  • 主要思想:上一轮基学习器预测错误的样本,在下一轮学习中增加权重,使得犯错的样本在下一次学习中获得更多的关注,不断提高整体模型的预测能力

2、adaboost预测原理

训练阶段

1、第一轮训练,初始化样本权重为: 1 N \frac{1}{N} N1

2、通过第一轮样本权重,对第一个基学习器进行训练,获得第一个基学习器和第一个基学习器的预测错误率 ϵ t \epsilon_t ϵt

3、通过第一个基学习器的 ϵ t \epsilon_t ϵt,生成尺度因子,根据尺度因子计算下一次训练每个样本的权重

1 − ϵ t ϵ t \sqrt{\frac{1-\epsilon_t}{\epsilon_t}} ϵt1ϵt

4、针对基学习器预测正确的样本权重,除以尺度因子;
针对基学习器预测错误的样本权重,乘以尺度因子;

5、通过新的权重对一下轮基学习器进行训练

voting阶段

1、每个基学习器的投票权重为:

α = l n 1 − ϵ t ϵ t \alpha = ln\sqrt{\frac{1-\epsilon_t}{\epsilon_t}} α=lnϵt1ϵt

2、最终结果为:

G ( x ) = s i g n ( ∑ t = 1 T α t g t ( x ) ) G(x) = sign(\sum_{t=1}^T\alpha_tg_t(x)) G(x)=sign(t=1Tαtgt(x))

3、从梯度下降的角度看adaboost(见下文手写公式)

3-1、根据权重更新公式确定adaboost的损失函数是指数损失

3-2、通过梯度下降证明adaboost使用的基学习器就是让整体模型损失函数减小的方向

3-3、通过梯度下降证明最大的步长长度是 α t \alpha_t αt

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值