机器学习笔记03 -- GBDT回归、二分类、多分类问题

这篇博客详细介绍了GBDT在回归、二分类和多分类问题中的应用。对于GBDT回归,强调了偏差和方差的概念,以及如何通过负梯度近似残差建立回归树。在二分类中,GBDT采用了逻辑回归的对数损失函数。而对于多分类,讲解了softmax回归的损失函数,并指出多分类GBDT实际上是为每种类别构建一组弱分类决策树。
摘要由CSDN通过智能技术生成

一、GBDT回归

1 偏差方差,过拟合欠拟合

偏差bias:是用所有可能的训练数据集训练出的所有模型的输出的平均值与真实模型的输出值之间的差异。
方差Variance:是不同的训练数据集训练出的模型输出值之间的差异。

想要结果偏差小,就要让模型复杂,参数多,但这样模型的学习能力会过强,导致方差大,在测试集上表现差,表现为过拟合
想要结果方差小,就要让模型简单,参数少,但这样会导致模型学习能力弱,导致偏差大,即表现为欠拟合

对于Bagging,投票输出或取均值输出可以减小方差,所以基模型可以取偏差小的,复杂的。过拟合->正常
对于Boosting,是不断的减小偏差,所以基模型可以取方差小的,简单的。欠拟合->正常

2 回归树建立过程

  1. 首先给出最初的弱学习器,它只有一个节点,所以直接用loss对w求导,找出导数为0对应得w,就是这个结点的权重,在loss为平方误差时,其实就是所有标签的平均值。
  2. 建立第一颗回归树,由于目标是使得每次的偏差逐步减小,即新加入的决策树的叶子节点权值w与残差(也就是负梯度
  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值