摘要 这些是在19年秋招面试的过程中,看面经以及自己经历后总结的算法面试的题目。
统计学习方法部分:
- 推导LR
- 画LSTM的图、画CNN的图
- 介绍CNN
- 过拟合得解决方法
- 方差偏差分解的公式
- 一道贝叶斯公式的概率题
- 逻辑回归和svm。
- 说说逻辑回归怎么实现多分类
- svm里什么时候用线性核和高斯核吧,比如样本数很多时,用哪种核?
- 决策树中信息增益的公式、解释信息增益代表什么意思,包括在哪些情况下信息增益中的H最大等问题;
- 随机森林整个相关的基础内容,比如决策树,随机森林是过拟合还是欠拟合等
- 最熟悉的机器学习算法
- ROC曲线是什么,曲线的物理意义是什么?AOC越高,体现什么?
- ReLu出现死节点的问题如何解决?
- 最小二乘与极大似然函数的关系?从概率统计的角度处理线性回归并在似然概率为高斯函数的假设下同最小二乘建立了联系
- LR为啥是个线性模型?本质就是线性的,只是特征到结果映射用的是sigmoid函数,或者说回归边界是线性的,即P(Y=1|x)=P(Y=0|x)时有W*x=0
- Hadoop中MR是怎么实现联表查询的?
- 分类的评价标准,准确度,AUC,召回率等等
- 有的逻辑回归损失函数中为啥要加-1*m
- 欠拟合的解决方法?模型简单,加深神经网络,svm用核函数等等
- L2正则的本质?限制解空间范围,缩小解空间,控制模型复杂度
- SVM引入核函数本质?提高维度,增加模型复杂度
- 介绍xgboost、gbdt、rf(随机森林)的区别
- 树模型的特征选择中除了信息增益、信息增益比、基尼指数这三个外,还有哪些?
- Sklearn中树模型输出的特征重要程度是本身的还是百分比?
- 介绍下SVM以及它的核函数
- 熟悉FM算法不?
- RF与xgboost的区别?怎样选取的特征?如何判断这些特征的重要程度?最后RF的层数和深度是多少?
- 还用了深层神经网络?几层?用GPU没?特征维度到底多少?服务器配置?啥?你能把全部数据放进内存?
- 介绍LR,为啥用的是似然函数不用最小二乘?当用lr时,特征中的某些值很大,意味着这个特征重要程度很高?对吗?不对,用lr时需要对特征进行离散化。。。
- L1和L2正则的区别?
- 树模型中,特征选择方法有哪些?ID3和C4.5分裂后,节点的信息熵是变大还是变小?
- RF和gbdt的区别
- 介绍下深度学习,CNN中的卷积和池化
- Hadoop中shuffle过程
- XGBoost与RF的区别
- RF的随机性体现在哪里?它的代码中输出的特征重要程度是怎么进行计算的?
- 实习项目中的评价标准是什么?accuracy和precision、recall这些一样吗?AUC的解释
- 了解哪些损失函数?区别是啥?
- 线性模型为何用的最小二乘作为损失函数而不用似然函数或者交叉熵?
- 了解哪些深度学习模型?keras底层用TensorFlow和theano时,代码有何不同?TensorFlow原理、流程图,session是啥?
- LR与SVM的区别
- GBDT与XGBoost的区别?
- RF和GBDT的区别?二者的优化目标是什么?
- 了解FM吗?GBDT的数据在使用前有什么需要注意的吗
- 做过广告点击率预估没?LR+GBDT和GBDT+FM怎么结合的知道不?
- RF与GBDT的区别?为啥你要用集成的方法而不用准确度更高的算法模型?
- 为啥LR的输入特征一般是离散的而不是连续的?
- 了解各种优化算法不?梯度下降和随机梯度下降的区别?牛顿法和拟牛顿法的区别?为啥提出拟牛顿?因为牛顿法涉及海塞矩阵,它的逆矩阵求解很麻烦
- KNN的使用场景
- 从数学角度和你的个人理解完整推导和讲解LR
- 解释rf,xgboost,gbdt的区别
- 数据的特征怎么处理的?用了哪些算法模型?
- faster-rcnn:rcnn到fast-rcnn再到faster-rcnn的改进是什么?faster-rcnn如何自动选择负样本?faster-rcnn采用的是什么函数?
- 完整解释CNN的流程,分别解释每一层的作用
- 卷积神经网络与传统神经网络相比优点是什么?
- tesseract-octer4.0的原理是什么,LSTM在这里面如何进行运用的。
- 模型训练后进行存储,应该存储哪些参数?
- 宏平均与微平均如何计算的?
- 一般二分类问题的评价指标是什么?
Ans: precision、recall、F1 score、PR曲线 - 常见的核函数有哪些
- 如何解决线性不可分的情况
- libsvm
- DNN,交叉熵,sigmoid,CNN,卷积,池化,对数似然,ReLu
- 有哪些防止过拟合的方法?