机器学习面试问题笔记

1, xgboost与GBDT区别(算法到内存)?

  • xgboost在损失函数中加入了正则项以控制模型复杂度。

XGBoost原理:
http://www.nflgift.com/2017/08/01/XGBoost%E7%9A%84%E5%8E%9F%E7%90%86/
https://blog.csdn.net/a819825294/article/details/51206410
http://www.52cs.org/?p=429
xgboost导读和实战.pdf
https://www.zhihu.com/question/41354392/answer/103119723

2, 神经网络有哪些优化算法?
http://blog.csdn.net/u010089444/article/details/76725843

Batch gradient descent,批量梯度下降法: Use all examples in each iteration;
Stochastic gradient descent,随机梯度下降法: Use 1 example in each iteration;
Mini-batch gradient descent,小批量梯度下降法: Use b examples in each iteration.
Momentum:为SGD加动量
Nesterov Momentum:
Adagrad:
RMSprop:
Adam自适应时刻估计方法(Adaptive Moment Estimation)

3、L1范数和L2范数的区别?
https://zhuanlan.zhihu.com/p/28023308
4、激活函数了解哪些?
sigmoid ,ReLU, softmax、tanh
http://blog.csdn.net/u011584941/article/details/71534828
[机器学习]常用激活函数的总结与比较
为什么需要激活函数?
通俗来说,激活函数一般是非线性函数,其作用是能够给神经网络加入一些非线性因素,使得神经网络可以更好地解决较为复杂的问题。
https://mp.weixin.qq.com/s/btrwGjVDdJStmvCx7HkKKg

5、损失函数如何去选择?
https://datascience.stackexchange.com/questions/9850/neural-networks-which-cost-function-to-use
6、概率论:均匀分布如何转变为高斯分布?
http://sofasofa.io/forum_main_post.php?postid=1001242
高斯分布生成均匀分布:http://blog.csdn.net/acceptyly/article/details/47857353
7、欠拟合与过拟合的概念及应对办法?

8、线性回归与逻辑回归区别?
线性回归是拟合,用于预测;逻辑回归是分类
9、k-means 聚类的原理以及缺点及对应的改进;

10、集成学习的方法?
集成方法:可以是不同算法的集成,也可以是同一算法在不同设置下的集成,还可以是数据集不同部分分配给不同分类器之后的集成。


11、特征选择的方法?

12、正则项为什么可以防止过拟合?
这个问题可以用**奥卡姆剃刀(Occam’s Razor)**来解释。奥卡姆剃刀的思想是,如果两个模型都能拟合数据,那么我们优先选择简单的模型。
正则化给神经网络带来的影响是:权值 (绝对值) 会更小。权值小的好处是,当输入发生微小的变化时,网络的结果不会发生大的波动,相反地,如果权值 (绝对值) 过大,那么一点点变化也会产生很大的响应(包括噪声)。从这一点来看,我们可以认为正则化的网络是比较简单的模型。

13、Dropout为什么可以防止过拟合?
dropout 的思想可以这么理解:假设我们按照标准模式 (没有 dropout) 训练很多相同结构的网络,由于每个网络的初始化不同,训练时的批训练数据也会存在差异,因此每个网络的输出都会存在差别。最后我们取所有网络的结果的均值作为最终结果(类似随机森林的投票机制)。例如,我们训练了 5 个网络,有 3 个网络将数字分类为「3」,那么我们就可以认为结果是「3」,因为另外两个网络可能出错了。这种平均的策略很强大,因为不同的网络可能在不同程度上出现了过拟合,而平均取值可以缓解一定程度的过拟合现象。dropout 每次训练时会 drop 一些神经元,这就像在训练不同的网络,dropout 的过程就像在平均很多网络的结果,因此最终起到减小 overfitfing 的作用。

14、Bagging与Boosting

15、梯度下降与极大似然法

16、机器学习 生成式与判别式 模型
判别式模型:根据训练数据得到分类函数和分界面(LR,SVM)
生成式模型:对数据的分布进行建模,有多少个类别,我们就建立多少个模型

17、伯努利分布:
(Bernoulli distribution,又名两点分布或者0-1分布)随机变量只取0或者1,各自的频率分别取1−p和p,当x=0或者x=1时,数学定义为: p ( x ) = p x ∗ ( 1 − p ) 1 − x p(x)=p^x*(1-p)^{1-x} p(x)=px(1p)1x

18、BP神经网络原理
分为前向传播反向传播。前向传播是信息、权重、偏置的线性变换与激活函数的非线性变换的多次叠加;反向传播是不断地对权重求偏导数,然后不断地用梯度下降更新每一个节点的权重。梯度下降法可由泰勒一阶展开推导得出,多次迭代可以收敛到局部最优解处。

18、梯度爆炸,梯度消失是什么,怎么解决
在ReLU出现以前,在DNN中使用tanh或者sigmoid函数会产生这些问题。梯度爆炸是因为在反向传播中,多层网络的权重值一直在0附近,而sigmoid在0附近的梯度很大,多次叠加会造成梯度爆炸,但这种情形在实际应用中并不常见。常见的情形是梯度消失,是在反向传播中,多层网络权值分布在sigmoid函数的两侧,而这两侧的梯度都非常接近0,多次叠加会产生0梯度,使得梯度消失,梯度下降无法更新权重。这两个问题主要可通过更换激活函数解决,ReLU在很大程度上可以解决这两个问题。也有研究表明batch normalization 可以缓解梯度消失问题。

为什么相比于RNN,LSTM在梯度消失上表现更好?

18.1、梯度消失问题和损失函数有关吗?

19、线性最小二乘法
让一条直线尽可能地去拟合样本点,实际中虽然不存在一条穿过所有样本点的直线,但是能近似表示样本的分布趋势也是有意义的(让这条直线在所有数据点中间穿过,而这些点到这条直线的误差之和越小越好)

20、导数与偏导的概念
导数就是求变化率。偏导数则是当变量超过一个的时候,对其中一个变量求变化率。

21、拉格朗日乘子法

22、如何判断函数凸或非凸?
https://blog.csdn.net/xmu_jupiter/article/details/47400411

23、EM算法与Kmeans

24、Dropout为什么能防止过拟合?

25、Batch Normalization的原理?有什么好处?
https://zhuanlan.zhihu.com/p/34879333
总的来说,BN通过将每一层网络的输入进行normalization,保证输入分布的均值与方差固定在一定范围内,减少了网络中的Internal Covariate Shift问题,并在一定程度上缓解了梯度消失,加速了模型收敛;并且BN使得网络对参数、激活函数更加具有鲁棒性,降低了神经网络模型训练和调参的复杂度;最后BN训练过程中由于使用mini-batch的mean/variance作为总体样本统计量估计,引入了随机噪声,在一定程度上对模型起到了正则化的效果。
优点:
1)可以使用更高的学习率,BN有快速收敛的特性。
2)模型中BN可以代替dropout或者使用较低的dropout
3)减少L2权重衰减系数。
4)取消Loacl Response Normalization层
5)BN本质上解决了反向传播过程中梯度消失的问题。
6)可以把训练数据彻底打乱
缺点:
1)增加模型时延?(生产中遇到,CTR预测模型对延迟要求严格)
2)不适用于对噪声敏感的强化学习、生成模型(Generative model:GAN,VAE)使用

26、反向传播的算数题,要求算出结果并解释

27、SVM能不能梯度下降求解呢

28、Xavier初始化?
将神经元的初始值权重初始化为均值为0,方差为 Var(wi)=1/nin 的随机分布(高斯或者均匀分布)。其中 nin 是该神经元的输入数目。

29、Internal Covariate Shift?
Batch Normalization的原论文作者给了Internal Covariate Shift一个较规范的定义:在深层网络训练的过程中,由于网络中参数变化而引起内部结点数据分布发生变化的这一过程被称作Internal Covariate Shift。

一文搞定数据科学和机器学习的最常见面试题(附学习资料)

面试了8家公司,他们问了我这些机器学习题目…

【数据】数据科学面试问题集二

数据科学面试问题一


5.22:
FM、FFM你了解吗?
https://www.cnblogs.com/yaoyaohust/p/7865379.html

Softmax推导?

WordEmbedding你了解吗?
https://www.jianshu.com/p/0bb00eed9c63

收藏 | 超全数据科学与机器学习面试指南(附资源)

【深度学习面试问答集】《Deep Learning Interview Questions And Answers - YouTube》https://weibo.com/1402400261/Gtc21dIR1?type=repost#_rnd1533521659117

30、Cross entropy loss交叉熵损失与均方差损失(Mean Squared Error Loss)的差别?
mse会梯度消失且非凸容易陷入局部最小点。分类任务上常用的激活函数是sigmoid,如果使用均方误差的话,在使用梯度下降算法更新时,权值w的偏导会含有sigmoid函数导数项(在输出接近0和1时会非常小),导致训练阶段学习速度会变得很慢,而如果用交叉熵的话,权值w的偏导时不含sigmoid函数的导数项的(可以自己推导一下),所以不会出现这个问题。所以在分类任务上,我们一般使用交叉熵

31、Adam优化器是怎么工作的?
可以看做是RMSProp+Momentum
具体说来,就是它使用了一个梯度平方的滑动平均(同RMSProp)
然后使用的是平滑版的梯度m,而不是原始梯度dx,积攒历史梯度(同Momentum)。
其次,相比于缺***因子导致二阶矩估计可能在训练初期具有很高偏置的RMSProp,Adam包括偏置修正,修正从原点初始化的一阶矩(动量项)和(非中心的)二阶矩估计。

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
机器学习面试题pdf是一份包含机器学习相关问题的文档,通常用于准备机器学习职位的面试。这类面试题包括理论和实践两方面的内容。 在理论方面,机器学习面试题可能会涉及基本概念、模型选择与评估、特征工程、模型调参等方面的问题。例如,常见的问题包括机器学习的基本定义、监督学习与无监督学习的区别、过拟合与欠拟合问题的解决方法等等。这些问题考察了应聘者对于机器学习算法和模型的理解程度。 在实践方面,机器学习面试题可能会要求应聘者运用机器学习算法来解决实际问题。这种类型的问题可能涉及数据预处理、特征选择与提取、建模、模型评估等多个步骤。应聘者需要运用所学的机器学习知识,选择适当的算法和工具,处理和分析给定的数据,并给出合理的解决方案。 对于准备机器学习面试的应聘者来说,机器学习面试题pdf是一个宝贵的资源。应聘者可以通过研究和解答这些问题,巩固和扩展自己的机器学习知识,并了解常见的面试考点和答题思路。此外,应聘者还可以利用机器学习面试题pdf进行自我评估和练习,提高应对面试问题的能力。 总的来说,机器学习面试题pdf对于机器学习职位的应聘者来说是一份重要的学习和准备资料。通过认真研究和解答这些问题,应聘者可以提高自己的机器学习理论水平和实践能力,增加面试成功的机会。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值