期刊:Expert Systems with Applications (2020 计算机科学 2区)
文章介绍了一种基于AdaBoost.M1改进的、由多种不同算法生成的弱分类器构成的集成学习(ensemble learning)算法。
特点
无需人工根据数据特点选择相应的基分类器;
自动选取最优的基分类器数量;
在多个数据集中拥有优异的准确率(Accuracy)与几何均值(Geometric Mean);
且其的两个指标相比常见方法(Bagging、AdaBoost、Stacking等)有很大的提升。
算法步骤
HBoost 的 Heterogeneous 体现在算法选取了多种不同的 learning algorithm 来构造出具有较大差异性(diversity)的弱分类器。
文中将数据集分为10份,8份作为训练集用于弱分类器的训练,1份作为验证集用于计算熵,1份作为测试集。算法的流程如下:
- 选取 L 种不同的 learning algori