AdaBoost
(1)收集数据:可以使用任何方法;
(2)准备数据:依赖于所使用的若分类器类型;
(3)分析数据:可以使用任意方法
(4)训练算法:AdaBoost的大部分时间都用在训练上,分类器将多次在同一数据集上训练若分类器;
(5)测试算法:计算分类的错误率;
(6)使用算法:同SVM一样,AdaBoost预测的两个类别中的一个,如果想要把它应用到多个类的场合,那么就像多类SVM中的做法一样对AdaBoost进行修改。
AdaBoost
优点: 泛化错误率低,易编码,可以应用在大部分分类器上,无需参数调整
缺点: 对离群点敏感
注:分类器一般采用若可学习分类器,通过集成,组合为强可学习分类器。
集成方法:Bagging和Boosting