机器学习算法6-AdaBoost元算法

本文介绍了AdaBoost元算法,一种自适应的boosting方法,用于集成弱分类器形成强分类器。AdaBoost通过调整训练数据的权重,重点关注被错误分类的样本,以降低分类错误率。此外,还探讨了非均衡分类问题,包括混淆矩阵、ROC曲线、代价敏感学习以及过抽样和欠抽样等解决策略。
摘要由CSDN通过智能技术生成

本文来自<machine learning in action>一书的读书笔记


一. 什么是元算法(meta-algorithm)

元算法就是对其他算法进行组合的一种方式。也称为集成算法(ensemble method),例如bagging方法和boosting

法。它可以是不同算法的集成;也可以是同一算法在不同设置下的集成;还可以是数据集不同部分分配给不同分类

之后的集成。



二. boosting方法与bagging方法的区别

bagging方法:也称为自举汇聚法(bootstrap aggregating)。是从原始数据集中选择S次后得到S个新数据集的一

技术。这S个数据集的大小和原始数据集的大小一样。每个数据集都是在原始数据集上随机选择S次并替换得到的。

此,新的数据集可能有重复的样本,原始数据集中的某些样本也可能不在新的数据集中。S个数据集经训练最后会

到S个分类器,应用这S个分类器对测试样本进行分类,得到S个结果,选择投票结果中最多的类别作为最后的分类

果。

boosting方法:与bagging方法很类似&#

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值