GBDT——学习笔记

GBDT(梯度提升决策树)

看了一篇博客,觉得讲解得比较好,本文只是我的一篇笔记,主要是为了检验自己是否真的懂了。要看详细讲解,推荐参考https://blog.csdn.net/w28971023/article/details/8240756
按照博客中的介绍,对GBDT中的名词逐个进行解释。
-决策树
-提升
-梯度


决策树

一般听到决策树都会想到分类问题,如ID3,C4.5 ,计算信息增益;但是此处的决策树是回归树,构建回归树时,计算所有特征的所有取值后的平方误差(如特征A1,取值q1,则平方将c<=q1,分为一类,将c>q1分为另一类,将同一类中的所有取值的平均值作为预测值cm,用真实值与预测值的平方误差决定特征和值的选择)。
还是引用上述链接博客中的图,当每个叶节点就一个值,或是满足某一预设条件时,停止,得到回归树。
这里写图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值