1、对于Xgboost模型,如果loss很低,但分类精度很低,原因?如何解决,从模型内部考虑?
2、gbdt,xgboost,lgbm的区别
3、梯度下降法,牛顿法,拟牛顿法区别
5、什么是梯度消失,饱和,如何改善
6、lr的推导
7、bagging.boosting.stacking区别
8、CNN与RNN的区别
9、如何防止过拟合
2018/08/16 百度面试
编程题:求解二叉树的最大高度(递归与非递归) 二叉树的深度,
研究研究Tensorflow框架中GPU的卷积操作是怎样实现的,
一本数据结构和算法相关书籍搞深,搞透