XGBoost——机器学习(理论+图解+安装方法+python代码)
LightGBM,XGBoost被面试官刁难了?内有含泪面试经验
调参
Github开源项目hyperopt系列的中文文档,以及学习教程
1.当分类型变量没有太多值时,做one-hot encoding可提升表现。(注:数据预处理时谨慎使用)
2.检查树的数量是否造成了过拟合或欠拟合。可分析测试集上的metric value(度量值),来选择合适的迭代次3.数调整学习率。若训练时,上次迭代没有过拟合,则提高学习率。若检测到过拟合,则降低学习率。
4.树深度。通常最佳的树深度在4-10之间,推荐使用6-10之间的值。
5.L2正则化,尝试不同值以找到最佳值。
6.随机强度,尝试不同值已找到最佳值。
7.Bagging温度
8.Border count,这个值会影响GPU训练速度。值越小,训练越快。对大部分数据集而言,设置为128就行了
9.若数据集是有序的,调整internal dataset order。
作者:R2ai帮助创造AI的AI
链接:https://www.zhihu.com/question/302880510/answer/545842110
来源:知乎