模型融合技术的两种方法:Bagging Boosting

Bagging主要在优化variance(即模型的鲁棒性)
boosting主要在优化bias(即模型的精确性)
上一节说过了   error= variance + bias 
下面分别说一下怎么优化的:
bagging:Boostrap Aggregating 意思是重采样 然后在每个样本上训练出来的模型取平均值
Boosting:是迭代算法,每一次迭代都根据上一次迭代的预测结果对样本进行加权
variance是模型的鲁棒性,即模型的泛化能力,如果训练的样本高度相关,那么模型的鲁棒性肯定不会好。
bagging:通过重采样的方法,各个模型之间的相关性并不高,所以可以降低variance,而并没有针对bias进行优化。而Bagging是通过重采样的方法降低了模型的过拟合的可能性。
Boosting:从优化的角度看,每次都根据上一次迭代的结果进行优化,所以各个子模型之间是高度相关的,variance并不会显著提高,所以,Boosting主要是针对bias进行优化。同时,Boosting是将许多弱分类器放在一起,组合成一个强分类器,而所谓的弱分类器,就是bias大的分类器,而强分类器就是bias小的分类器,所以bias是boosting的主要优化目标。
  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值