集成学习之 如何进行多样性增强

众所周知,对于集成学习的基学习器而言,他们的差异性越大,集成之后的效果就越好,那么,我们怎么增强不同模型的多样性呢?

 

1.样本扰动:比如Bagging中的自助法就是了,由于生成的不同数据集间有一定的不同,所以导致训练出来的基学习器也有一定的不同。(对于linear、svm、naive_bayes、knn这些对扰动不敏感的基学习算法效果不大)

2.输入扰动:对于那些有非常多的属性,且有大量冗余属性的数据集,我们可以用随机子空间法:从数据集中随机抽取一些属性作为子集,然后,依靠这些子集训练基学习器。(不适合属性较少或 冗余属性较少的数据集)

 

3.输出扰动:比如多分类中,讲多分类任务转化为多个二分类任务, 把样本中的标签反转(0—>1, 1—>0)

 

4.算法参数 扰动:我们一般会给模型设置初始参数的,初始的参数不同,训练出来的模型也会不一样,因此我们还可以调这个老得到多个基学习器。(正常我们也是多次选取初始值训练得到多个模型,然后选取效果好的一个,现在只是要把这些效果差一点的模型也利用上,因此不会增加训练时间)

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值