集成机器学习7—Scikit-Learn中的GBM—GBDT

∙ \bullet Scikit-Learn中的GBM采用的弱学习器是决策树,所以叫做GBDT。一般不常用GBDT,而用其他实现较好的方式XGBoost、LightGBM。
∙ \bullet CART的简单历史
在这里插入图片描述两位教授在CART的基础之上,分别提出了Boosting和Bagging的方式。随机森林通过Bagging能够降低模型的方差,但偏差没有变化,所以需要每棵树精度比较高,也就是偏差比较小,所以要求深度比较深,或者叶子节点比较多。而GBDT只需弱学习器比随机猜测稍好一些就行,比如后边XGBoost会建议树的深度是3到10之间。

在这里插入图片描述devicance,代表用Logistic损失,也就是交叉熵损失,如果用指数损失的化,这就是一个AdaBoost的算法。learning_rate越小,n_estimators就越大,这个应该是只要用boost算法,就有的一个现象吧?subsample,表示从原始样本中采样多少样本,1.0表示全部。
在这里插入图片描述

  • 4
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值