2019秋招——百度机器学习面经

由于百度是秋招的时候面的,现在很多问题都记不住了,这里只写下我还记得的题目吧(当时太懒了,不想写了。。。):

1.文本分类比赛用的什么模型?为什么?

答:LR、SVM、XGBoost。。。

问:最终选用了哪个?

答:blabla。。。线性核的SVM

问:为什么选线性核SVM?

答:效果最好,特征数目远大于样本数目时,选线性核的SVM比较好。

问:为什么?

答:LR受全部样本的影响,SVM只受支持向量的影响。(感觉有些牵强)

2.文本分类的数据是怎样的?类别标签是怎样的?

答:blabla。。。

3.LR多分类是怎么实现的?

答:softmax层

问:为什么用softmax层,而不用onevsall等多分类策略

。。。不记得了

4.SGD如何改进优化?

答:这里我理解错了,实际上他是想问mini-batch梯度下降。

5.推导带L1正则项的LR,以及如何进行优化的?

答。。。

6.gdbt和xgboost的区别?

答:(经典面试题)。。。

7.树模型、xgboost、gbdt哪个需要做特征归一化?

。。。

8.面对一个任务,如何选择模型?

我感觉这里可以理解为模型的使用场景。。。

9.LR和SVM的区别?

答:(经典面试题)。。。

10.过拟合的解决手段?

。。。

11.CNN、RNN、LSTM的原理?

。。。

12.书写下链表逆序?

。。。。

13.书写归并排序,并优化到空间复杂度为O(1)

。。。双指针

14.几种梯度下降法的区别?

。。。

15.Hadoop相关

转载于:https://www.cnblogs.com/wangkundentisy/p/10575830.html

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值