adaboost算法_手写adaboost的分类算法—SAMME算法

本文详细介绍了Adaboost分类算法中的SAMME算法,通过sklearn官方文档解析了算法原理,包括指数损失函数、样本权重更新及基分类器的选择。通过推导得出,每个基学习器的目标是使所有样本分类正确,从而最小化损失函数。最后,文章提到了Adaboost中样本权重的归一化处理,并提及了SAMME.R算法作为后续探讨的内容。
摘要由CSDN通过智能技术生成

看了一下,adaboost之前也有不少人实现的思路,但是各有不同,为了方便起见,这里重点还是阐述一下sklearn中的adaboost的实现算法。

fec08a56b3773ebe27c3a07ff75994da.png

来自sklearn的官方文档的谷歌翻译。

首先来看下adaboost的分类:

两者的主要区别是弱学习器权重的度量,SAMME使用了和我们的原理篇里二元分类Adaboost算法的扩展,即用对样本集分类效果作为弱学习器权重,而SAMME.R使用了对样本集分类的预测概率大小来作为弱学习器权重。由于SAMME.R使用了概率度量的连续值,迭代一般比SAMME快,因此AdaBoostClassifier的默认算法algorithm的值也是SAMME.R。我们一般使用默认的SAMME.R就够了,但是要注意的是使用了SAMME.R, 则弱分类学习器参数base_estimator必须限制使用支持概率预测的分类器。SAMME算法则没有这个限制。

其实也挺好理解的,samme就是基学习器直接输出分类的标签,而samme.R则是输出分类的概率值,具体的区别下面写,首先是SAMME:

机器学习笔记:AdaBoost 公式推导​www.jianshu.com
95427050f99e1e7026bb13fe687fc271.png

这一篇算是讲解和推导的比较完整的了,借鉴一下:

首先adaboost的整体的公式表示:

每一轮训练一个新的分类器

,并且根据这个分类器的误差得到这个分类器的权重

adaboost使用的是指数损失函数:

b38b9e5db619980676dd66f06f1cf3b2.png
<
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值