gbdt降低学习率可以实现正则化效果呢

问题:为什么降低学习率可以会有正则化效果呢?

因为一般根据在神经网络的经验而言,降低学习率,可以实现更高的训练效果,即进一步拟合;

在gbdt中,这个学习率与神经网络中的学习率担任的角色不一样;

gbdt中的学习率主要是调节每棵树的对预测结果的贡献;如果学习率下降,就降低了每棵树的贡献;模型训练的预测效果就会下降;为了达到和高学习率相同的效果,就需要生成更多的树;

当时的疑惑是如果下降学习率,那么就会生成更多的树,就会更加拟合;怎么会有正则化效果呢?

因为下降学习率,并没有增加更多的树,前提假设其他的超参是不变的;

在学习率等超参数固定的情况下,树的数量越多,就模型训练精度越高; 

在树的数量等超参数固定的情况下, 学习率越高,模型训练精度越高;

  • 5
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值