AdaBoost原理-学习总结

Adaboost学习总结
 算法概述
Adaboost(提升)算法是通过多个弱分类器(弱可学习)联合形成一个强分类器(强可学习)的算法。
解决主要解决两个问题:
 每一轮弱分类时候,怎么改变训练数据的权值;
 如何将多个弱分类器组合成为一个强分类器;
 算法解决方法
 训练数据的权值更新
第一次训练样本权值为1/N,其中N代表样本的数量;
其余次训练样本权值为:
                W_(2i )=   W_(1i )/Z_1  E^(( -a_1 y_i G_1 (x_i ))  )  I = 1,2,…N
                其中:
                    Z_m 是规范化因子   Z_m  =  ∑_(m=1)^N▒〖( E^(( -a_m y_i G_m (x_i ))  )  )〗;
                    a_m 弱分类器系数   a_m=  1/2 log (1-e_m)/e_m ;
                    e_m 是分类误差率   e_m= ∑_(i=1)^(N )▒〖I( G_m (x_i )  != y_i)〗; 识别错误的样本的权值累加和;
 弱分类器组合成为一个强分类器
最终的强分类器就等于弱分类器加权值和:
G(x) = ∑_(m=1)^M▒〖a_m G_m (x)〗
 算法流程

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值