为什么说bagging是减少variance,而boosting是减少bias?

Bagging中有两个操作都可以达到降低variance的效果,首先每一轮生成树的时候都是用bootstrap的方式在采样,即保证了数据集的相对多样性;此外bagging还随机选择k个特征,这可以进一步保证每个树之间的差异性,因此对于单独的一棵树来说它的偏差是非常高的,但是由于bagging生成的树可以是多种多样的,达到了防止过拟合的作用,即降低了方差。而对于bias来说的话,由于基分类器优化的目标本质上是一致的,所以bagging前后的bias是差不多的。
Boosting,每一轮迭代都根据前面迭代模型的效果来进行修正,进行样本或分类器的加权。这个过程也可以理解为一步一步的逼近真实值。因此如果迭代次数足够多,可以产生更好的预测结果,也就是减少了偏差。同时由于boosting中的基分类器是强相关的,总是利用残差来进行计算,所以不能显著的降低variance。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值