Adaboost学习总结
算法概述
Adaboost(提升)算法是通过多个弱分类器(弱可学习)联合形成一个强分类器(强可学习)的算法。
解决主要解决两个问题:
每一轮弱分类时候,怎么改变训练数据的权值;
如何将多个弱分类器组合成为一个强分类器;
算法解决方法
训练数据的权值更新
第一次训练样本权值为1/N,其中N代表样本的数量;
其余次训练样本权值为:
W_(2i )= W_(1i )/Z_1 E^(( -a_1 y_i G_1 (x_i )) ) I = 1,2,…N
其中:
Z_m 是规范化因子 Z_m = ∑_(m=1)^N▒〖( E^(( -a_m y_i G_m (x_i )) ) )〗;
a_m 弱分类器系数 a_m= 1/2 log (1-e_m)/e_m ;
e_m 是分类误差率 e_m= ∑_(i=1)^(N )▒〖I( G_m (x_i ) != y_i)〗; 识别错误的样本的权值累加和;
弱分类器组合成为一个强分类器
最终的强分类器就等于弱分类器加权值和:
G(x) = ∑_(m=1)^M▒〖a_m G_m (x)〗
算法流程
AdaBoost原理-学习总结
最新推荐文章于 2022-01-18 21:21:51 发布