大数据算法岗位面试题

这是一篇关于大数据算法岗位面试的总结,涵盖了反向传播、神经网络激活函数、梯度消失问题、Dropout、Batch Normalization、优化算法如Adam、LSTM与GRU的区别、防止过拟合的方法、KMeans、SVM、GBDT系列模型以及word2vec等核心概念。还讨论了衡量向量和字符串距离的方法,并提出了多种评估相关性的模型。
摘要由CSDN通过智能技术生成

神经网络
1、简述反向传播原理 (阿里),面试官微信发了一道反向传播的算数题,要求算出结果并解释 (要能计算的) 
2、sigmoid和ReLU的优劣 
3、梯度消失问题和损失函数有关吗? 
4、Dropout为什么能防止过拟合? 
5、Batch Normalization有什么好处? 
6、讲讲Adam优化算法

7、能想到哪些衡量两个向量之间距离的方法(L1, L2, cosine,或者深度学习里训练MLP作为距离函数,注意normalization) 
8、衡量两个字符串之间距离的方法?(楼主答了edit distance和Jaccard distance,不知道还有没有其他常用的) 
9、LSTM相比普通RNN有哪些优势?为什么能解决梯度消失? 
10、LSTM和GRU用哪个好?(楼主表示两个之间没有绝对的优劣..面试官表示认同,说实际应用里确实会因为计算速度而选择GRU) 
11、梯度消失梯度爆炸怎么解决 
12、RNN容易梯度消失,怎么解决(LSTM) 
13、LSTM跟RNN有啥区别 
14、KMeans讲讲,KMeans有什么缺点,K怎么确定 
15、卷积层和池化层有什么区别 
16、防止过拟合有哪些方法 
17、阐述SVM原理,为何使用对偶性以及对偶性原理,SVM如何解决多分类,SVM与LR对比。 
18、阐述GBDT、xgboost、lightGBM的异同,xgb的优势,lgb的优势,二者的并行如何实现。 
19、阐述word2vec的原理&#x

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值