gbdt学习率调参

问题:如果你的梯度集成模型过拟合了,此时应该是增加学习率还是减少学习率?

在梯度提升模型中,学习率本质上是误分类样本的权重;如果要减少过拟合,就要减少对错误分类的关注;

此处使用极限思维,学习率为0,那么就只有一棵树,错误分类的实例均不考虑;

输出验证集与训练集的结果:

 

 改变学习率:

输出结果:如下所示:

降低了学习率,减少了过拟合,泛化性能提升

 

 

 

 

个人理解:

学习率与1的差值绝对值越大,正则化强度越强,方差越小;差值绝对值越小,偏差越小,方差越大;

 

从另外的角度而言,每棵树都学习了一些特征,树越多就说明需要越多的特征来预测;换句话说,树越多一定是泛化能力更强;不依赖于其中某棵树;稳定性更好;如果过拟合了,就要想到需要使用更多的树;用另外一种想法就是:如果用一棵树训练好的模型与100棵树训练好的模型,在训练集效果100%,但哪个泛化能力更强呢?

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值