GBDT是拟合伪残差,如果不限制GBDT中建树时的任何参数(max_depth等相关参数为决策树默认),是不是GBDT的结果就和单一决策树是相同的了? GBDT为什么需要多轮迭代,GBDT每次迭代建树的方向都是损失函数下降最快的方向,也就是负梯度(伪残差)的方向,为什么不能通过增大学习率来使得迭代只有一次。简单来说就是多次迭代的GBDT和一次建成有剪枝的决策树差别在哪里?GBDT为什么需要迭代? 该回答引用ChatGPT 如果不对GBDT