GBDT的训练能否并行,随机森林呢?

首先讲结论:GBDT不可并行训练,随机森林可以并行训练。

然后讲原因,如下。

 

GBDT原理:https://blog.csdn.net/NXHYD/article/details/104601247

GBDT是通过采用加法模型(即基函数的线性组合),以及不断减小训练过程产生的残差来达到将数据分类或者回归的算法。

可以看到,GBDT每一次训练出来的弱分类器都会被用来进行下一个弱分类器的训练。因此,GBDT每个弱分类器是无法进行并行训练的。

 

随机森林:https://blog.csdn.net/NXHYD/article/details/104612472

原理:随机森林顾名思义,是用随机的方式建立一个森林,森林里面有很多的决策树组成,随机森林的每一棵决策树之间是没有关联的。

随机森林是有放回的随机选择N个样本(每次随机选择一个样本,然后返回继续选择)。每次使用随机选择的N个样本用来训练一个决策树。各个决策树之间没有联系,因此可以并行训练。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值