模型融合 Blending 和 Stacking

转载自https://tianle.me/2018/02/11/aggregate/

构建并结合多个学习器来完成学习任务,我们把它称为模型融合或者集成学习。
不同的模型有各自的长处,具有差异性,而模型融合可以使得发挥出各个模型的优势,让这些相对较弱的模型(学习器)通过某种策略结合起来,达到比较强的模型(学习器)。

在进行模型融合之前,各个基学习器不能够太差,即“准确性”,第二,它们之间要有区分度,即“差异性”。要满足这两点,把多个学习器结合在一起,它们的效果才能比原先的各个基学习器要好。
那么它们都有哪些方法呢?

Blending

Uniform Blending (均匀融合)

Uniform Blending的分类的模型如下,实际上就是少数服从多数的原则,类似于投票:
G(x)=sign(∑t=1T1⋅gt(x))
回归模型如下,直接求T个模型g的结果的平均值:
在这里插入图片描述
通过Uniform Blending可以减少varience。

分类问题可以想象为投票,回归问题可以想象为加权。

Linear Blending (线性融合)

上面的Uniform Blending,对于每一个模型,无论是回归还是分类,它们的权重是一样的。但是我们稍加改变,为每一个g都指定权重。
在这里插入图片描述
其中,αt⩾0。那么这些g是由最小化评价集合的最小误差得到的,然后通过“特征转化”: zn=ϕ−(xn)=(g1(xn),g2(xn)…gT(xn)),数据变为(zn,yn); 而 αt通过之前的线性回归,逻辑回归等方法得到投票权重;最后便得到了最终模型。

Stacking

Stacking实际上就是把Blending组合起来,Blending只有一层,而Stacking有多层,它把各个基学习器的预测结果作为下一层新的训练集,来学习一个新的学习器。通过元分类器或元回归聚合多个分类或回归模型。基础层次模型(level model)基于完整的训练集进行训练,然后元模型基于基础层次模型的输出进行训练。
在这里插入图片描述

总结

上面的这几个方法都是先把小的模型训练出来,然后再进行加权融合。Stacking有个问题,由于它的模型复杂度过高,容易造成过拟合。

在模型融合中,除了不同的算法模型之外,相同的算法模型不同的模型参数,算法中的不同随机种子,也可以用来融合。
在这里插入图片描述

参考资料

机器学习技法笔记(9)-Blending and Bagging(模型融合)
机器学习–>集成学习–>Bagging,Boosting,Stacking

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值