bagging与随机森林

集成学习(ensemble learning)是现在非常热门的机器学习方法,在各种大赛中都可以看到它的身影。它本身不是一个单独的机器学习算法,而是通过构建并结合多个机器学习器来完成学习任务,所以常常比单一学习器具有更为显著的泛化性能。根据个体学习器的生成方式,目前的集成学习主要可以分为两类:①个体学习器之间存在强依赖关系、必须串行生成的序列化方法,代表是Boosting;②个体学习器之间不存在强依赖关系、可同时生成并行化方法,代表是Bagging。

1. Bagging的原理

img

Bagging的原理如上图,采用的是一种“自助采样法(bootstrp sampling)”:对于m个样本的原始训练集,我们每次先随机采集一个样本放入采样集,接着把该样本放回,也就是说下次采样时该样本仍有可能被采集到,这样采集m次,最终可以得到m个样本的采样集,由于是随机采样,这样每次的采样集是和原始训练集不同的,和其他采样集也是不同的,这样得到多个不同的弱学习器。
注意这里的采样是有放回的采样,对于一个含有m个训练样本的训练集,通过数学推导可知,约有63.2%的样本会出现在采样集中。另外值得一提的是,剩下的36.8%的样本可以用作验证集来对泛化性能进行 “包外估计”(out-of-bag estimation)

通过上述步骤得到不同的基学习器之后,再将他们进行结合。对于分类问题,通常使用简单投票法,得到最多票数的类别或者类别之一为最终的模型输出。对于回归问题,通常使用简单平均法,对T个弱学习器得到的回归结果进行算术平均得到最终的模型输出。

由于Bagging算法每次都进行采样来训练模型,因此泛化能力很强,对于降低模型的方差很有作用。当然对于训练集的拟合程度就会差一些,也就是模型的偏差会大一些。

2.Bagging算法

输入:样本集D={(x,y1),(x2,y2),…(xm,ym)},弱学习器算法, 弱分类器迭代次数T。

输出:最终的强分类器f(x)

流程:
1)对于t=1,2…,T:
   a)对训练集进行第t次随机采样,共采集m次,得到包含m个样本的采样集Dt
   b)用采样集Dt训练第t个弱学习器Gt(x)

  1. 如果是分类算法预测,则T个弱学习器投出最多票数的类别或者类别之一为最终类别。如果是回归算法,T个弱学习器得到的回归结果进行算术平均得到的值为最终的模型输出。

3.随机森林

随机森林(RF)是Bagging的一个改进版本:RF在以决策树为基学习器构建一个Bagging集成的基础上,进一步在决策树的训练过程中引入了随机属性选择。

为什么叫“随机”森林?

第一点是样本的选取是随机的,在前面bagging过程有详细说明。

第二点是节点选取随机。传统决策树在选择划分属性时是在当前结点的属性集合中选择一个最优属性(根据信息增益、增益率等准则),而在RF中,对基决策树的每个结点,先从该结点的属性集合中随机选择一个包含K个属性的子集,然后再从这个子集中选择一个最优属性用于划分。这里的参数k控制了随机性的引入程度,推荐k=log(d)。

随机森林和决策树的区别?

随机森林是普通决策树的集合。对于决策树模型,它会将你输入的样本特征与标签进行一系列规则的拟合,然后确定判定规则用于新样本的预测。而对于随机森林来说,它会随机地选择特征进行建决策树,然后将这一系列决策树进行结合后输出结果值。

随着个体学习器数目的增加,随机森林通常会收敛到更低的泛化误差。
随机森林算法流程

输入: 训练样本集D,弱分类器迭代次数T;

输出: 强分类器F(x)

流程:

1)对于t=1,2…,T:
   a)对训练集进行第t次随机采样,共采集m次,得到包含m个样本的采样集Dt
   b)用采样集Dt训练第t个弱学习器Gt(x)。在训练基决策树节点的时候,在节点上所有的样本特征中选择一部分样本特征,在这些随机选择的部分样本特种中选择一个最优的特征来做决策树的左右子树划分;
2) 如果是分类算法预测,则T个弱学习器投出最多票数的类别或者类别之一为最终类别。如果是回归算法,T个弱学习器得到的回归结果进行算术平均得到的值为最终的模型输出

4.小结

Bagging与Boosting比较

1)样本选择上:

Bagging:训练集是在原始集中有放回选取的,从原始集中选出的各轮训练集之间是独立的。

Boosting:每一轮的训练集不变,只是训练集中每个样例在分类器中的权重发生变化。而权值是根据上一轮的分类结果进行调整。

2)样例权重:

Bagging:使用均匀取样,每个样例的权重相等

Boosting:根据错误率不断调整样例的权值,错误率越大则权重越大。

3)预测函数:

Bagging:所有预测函数的权重相等。

Boosting:每个弱分类器都有相应的权重,对于分类误差小的分类器会有更大的权重。

4)并行计算:

Bagging:各个预测函数可以并行生成

Boosting:各个预测函数只能顺序生成,因为后一个模型参数需要前一轮模型的结果。
随机森林优缺点

RF的主要优点有:
    1) 训练可以高度并行化,对于大数据时代的大样本训练速度有优势。
    2) 由于可以随机选择决策树节点划分特征,这样在样本特征维度很高的时候,仍然能高效的训练模型。
    3) 在训练后,可以给出各个特征对于输出的重要性
    4) 由于采用了随机采样,训练出的模型的方差小,泛化能力强。
    5) 相对于Boosting系列的Adaboost和GBDT, RF实现比较简单。

​ 6) 对部分特征缺失不敏感。

RF的主要缺点有:

1)在某些噪音比较大的样本集上,RF模型容易陷入过拟合。
 2) 取值划分比较多的特征容易对RF的决策产生更大的影响,从而影响拟合的模型的效果。

1)在某些噪音比较大的样本集上,RF模型容易陷入过拟合。
 2) 取值划分比较多的特征容易对RF的决策产生更大的影响,从而影响拟合的模型的效果。

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值