关于xgboost的面试无非分为3大块,xgboost原理,调参,优点
1,原理。可能会要求推公式,细一点会让你比较和CART树有什么区别,然后引出ID3, C4.5,随机森林。(基尼系数和熵怎么算,为什么要用信息增益率)
2,调参。问你lambda,alpha是干什么的,你一般调哪些参数。GridSearchCV怎么和xgboost一起用。
3,优点。最主要的是代价函数的二阶展开,l1,l2正则。然后引申正则化有什么用,l1,l2区别等。
大佬可以直接看源码 源码解析
(以后有空再看)
xgboost原理 - 公式推导
点击这里
①集成思想 ②损失函数分析 ③求解
机器学习三要素:模型、策略、算法。
xgboost调参
作者分享了两条经验:
1.仅仅通过调参来提升模型的效果是很难的
2.想要提升模型的效果,还可以通过特征工程、模型融合以及stacking方法
- General Parameters: