AdaBoost加权分类误差率最小的基分类器问题

之前一直有个疑惑,AdaBoost每一轮训练一个加权数据分类误差率最小的基分类器。如果基分类器是决策树,那么无论用Gini指数还是熵,都和分类误差率是一致的,也就是Gini指数/熵达到最小时,分类误差率同时也达到最小。但如果是其它基分类器,如SVM或逻辑回归(当然一般不会选这种强分类器),在优化hinge损失或对数损失时,只是在近似最小化分类误差率(loss和accuracy并不完全一致)。

很多资料并没有提及这一点,个人觉得不太严谨,后来在ESL上找到了这一点的解释。

One can view line 2(a) of the Adaboost.M1 algorithm as a method for approximately solving the minimization in (10.11) and hence (10.10).
G m = arg ⁡ min ⁡ G ∑ i = 1 N w i ( m ) I ( y i ≠ G ( x i ) ) (10.10) G_m=\operatorname{arg}\min_G \sum_{i=1}^N w_i^{(m)}I(y_i \neq G(x_i)) \tag{10.10} Gm=argGmini=1Nwi(m)I(yi=G(xi))(10.10)
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值