【总结帖】一些题目+答案

海外小硕的国内面试经历(感叹。。。细小的知识点好多哦啊( ˇˍˇ ))

百度面试经历

1. 请问Faster rcnn的优势是什么,为什么在这个项目使用Faster rcnn

3. 能介绍一下 Faster rcnn RPN的作用和原理吗?

4. ROI pooling 的主要作用是什么?知道 ROI align吗? 它们两个的区别是什么?

RoIPooling、RoIAlign笔记

5. 说一下Faster rcnn中anchor的机制,分别说一下 RPN阶段 两种Loss分别是什么?

6.  Faster rcnn有什么不足的地方吗?如何改进?还使用过其它的框架吗?

Faster R-CNN改进篇(一): ION ● HyperNet ● MS CNN

soft-NMS、RoI-Align、

[目标检测] Faster R-CNN 深入理解 && 改进方法汇总

7.  BN的原理!!!它的参数是怎么学习到的??

Batch Normalization 学习笔记

8. 能介绍一下你经常用的optimizer吗?

简单认识Adam优化器

9.  解释一下什么是凸优化

什么是凸集?凸集:http://en.wikipedia.org/wiki/Convex_set

什么是凸函数?凸函数:http://en.wikipedia.org/wiki/Convex_function

什么是凸优化:

同时满足如下两个条件的优化问题称为凸优化:

1)目标函数(objective fucntion)是凸函数;

2)可行集合(feasible set)必须是凸集;

即在凸集上寻找凸函数的全局最值的过程称为凸优化。

10: 编程题,手推SVM, 补全CNN部分BP的代码

11. 编程题: 给定一个数组和滑动窗口的大小,找出所有滑动窗口里数值的最大值,就是平时写的滑动窗口最大值

12.  编程题: Leetcode 315原题,线段树,好像也是一个算法竞赛题。

13. 开放性题目:如何进行数据预处理,如何进行数据归一化等等,最后还抛出一个他们业务中正在做的项目中遇到的问题。


商汤面试经历

3.  能解释一下梯度消失或者梯度爆炸的原因,以及如何解决吗?

详解机器学习中的梯度消失、爆炸原因及其解决方法

4.  请问你在Faster rcnn中使用的哪个基础神经网络模型,VGG还是ResNet? 能介绍一下常用的神经网络模型吗?

5.  看到你使用过LSTM, 请问LSTM主要解决什么问题,它的三个门分别是什么,有什么作用?

6. 能从数学层面分析一下梯度消失或者梯度爆炸的原因吗?

7.  说一下dropout可以解决什么问题,为什么有效?

8.  请介绍一下你常用的 Loss 函数, cross entropy的原理是什么?

9. 你知道的凸函数求极值的方法有哪些?我们在机器学习中经常使用梯度下降,为什么不使用牛顿法?

为什么不用牛顿法来代替梯度下降算法?

a. 牛顿法使用的是目标函数的二阶导数,在高维情况下这个矩阵非常大,计算和存储都是问题。

b. 在小批量的情况下,牛顿法对于二阶导数的估计噪声太大。

c.目标函数非凸的时候,牛顿法容易受到鞍点或者最大值点的吸引。

10.  如何将高维的变量映射到低维?

PCA、LDA

11.  过拟合的原因及解决办法

12. 平时使用什么编程语言? 请介绍一下python中闭包的作用?

13. c++中,类成员变量可否同时声明为虚函数和静态函数

14. 编程题:找出数组中两数之和为指定值的,所有整数对, 时间复杂度为O(n)  (这个携程实习生的时候考过)

15. 编程题: 找出数组前K大的数

python--查找数组第K大的数 (第k大和前k大的求解方法一样,用快排!)

16.  开放性题目:一个5层的教学楼,每层有若干个教室和大于2个的楼梯,请建立一个数学模型计算出火灾发生时所有人员撤出的时间,并列出你考虑的主要因素


2.  解释 L0  L1  L2正则化

3.  各种激活函数的优缺点

4.  Bagging和Boosting的区别

5. Max Pooling和 Average Pooling的区别,使用场景分别是什么?

6. 1 * 1卷积核的作用

7. Loss 不收敛的原因和解决方法

神经网络训练loss不下降原因集合


网易大数据:

很多概率论的数学题目

2、介绍SVM的原理

融360助理数据分析岗

1、Sql语句

2、分类算法之间的区别
3、逻辑回归的损失函数,以及原理
这里参考我写的另一篇文章:http://www.jianshu.com/p/949338f6a1dc
4、LR与SVM的对于数据的要求有何区别
LR要求所有的点尽量远离分类超平面,而SVM只要求支撑向量远离即可
二面:
1、SVM的损失函数,SVM的原理简单介绍
有关SVM的损失函数,参考博客:https://plushunter.github.io/2017/07/08/机器学习算法系列(24):损失函数/
2、决策树信息增益的公式
参考我的另一篇文章:http://www.jianshu.com/p/8c4a3ef74589
3、二分查找
今日头条算法工程师实习生

1、LDA的推导
2、常见的分类算法有哪些?
3、SVM的推导
4、SVM如何选择核函数?
在选取核函数解决实际问题时,通常采用的方法有:一是利用专家的先验知识预先选定核函数;二是采用Cross-Validation方法,即在进行核函数选取时,分别试用不同的核函数,归纳误差最小的核函数就是最好的核函数.如针对傅立叶核、RBF核,结合信号处理问题中的函数回归问题,通过仿真实验,对比分析了在相同数据条件下,采用傅立叶核的SVM要比采用RBF核的SVM误差小很多。

在我的研究做实验过程中,最常用的是Linear核与RBF核。
1). Linear核:主要用于线性可分的情形。参数少,速度快,对于一般数据,分类效果已经很理想了。
2). RBF核:主要用于线性不可分的情形。参数多,分类结果非常依赖于参数。有很多人是通过训练数据的交叉验证来寻找合适的参数,不过这个过程比较耗时。我个人的体会是:使用libsvm,默认参数,RBF核比Linear核效果稍差。通过进行大量参数的尝试,一般能找到比linear核更好的效果。

但是应用最广的应该就是RBF核了,无论是小样本还是大样本,高维还是低维等情况,RBF核函数均适用,它相比其他的函数有一下优点:
1)RBF核函数可以将一个样本映射到一个更高维的空间,而且线性核函数是RBF的一个特例,也就是说如果考虑使用RBF,那么就没有必要考虑线性核函数了。
2)与多项式核函数相比,RBF需要确定的参数要少,核函数参数的多少直接影响函数的复杂程度。另外,当多项式的阶数比较高时,核矩阵的元素值将趋于无穷大或无穷小,而RBF则在上,会减少数值的计算困难。
3)对于某些参数,RBF和sigmoid具有相似的性能。
知乎帖子:https://www.zhihu.com/question/21883548

5、LR的推导
6、LR的缺点
逻辑回归的优点:

便利的观测样本概率分数;
已有工具的高效实现;
对逻辑回归而言,多重共线性并不是问题,它可以结合L2正则化来解决;
逻辑回归广泛的应用于工业问题上(这一点很重要)。
逻辑回归的缺点:

当特征空间很大时,逻辑回归的性能不是很好;
不能很好地处理大量多类特征或变量;
对于非线性特征,需要进行转换;
依赖于全部的数据(个人觉得这并不是一个很严重的缺点)。
原文:http://www.csdn.net/article/2015-12-02/2826374?reload=1

知乎-数据挖掘面试

1、简历做过的项目
2、K均值聚类的原理
3、随即森林和GBDT的原理以及共同点和不同点
4、排序算法的时间复杂度,给定一个数组,找到前K个大的数

二面:
1、Seq2seq的结构
2、逻辑回归的损失函数以及似然函数

 

3、[6,7,9,23,1,4,5] 本来有序的一个数组,把前面的一部分放到了后面,然后写一个搜索算法。


图森 链接:https://www.nowcoder.com/discuss/103593?type=0&order=0&pos=15&page=1

Faster rcnn中每个roi的维度是多少?

FPN——原理resnet上面的结构

    Roi怎么区分从哪个层里出来的

    还知道哪些多尺度的框架

RFCN

1.原理

2.与faster rcnn异同

3.速度比较,类别数影响其速度

Mask rcnn

    原理

    改进:fpn,

    Roi align 与roi pooling区别

    什么时候roi pooling的效果要好

    训练的时候是并行的,那预测是怎么预测的

    实例分割是怎么做的,损失如何计算的

    为什么用logistic损失,而不是softmax损失

Bn层-原理

怎么用,就是他的参数是怎么学习到的

Nms

    优化的论文,soft nms原理

定位损失

    有哪些,iou损失,优点

    和smooth l1,l2比哪个好

最新的detection的文章(?那个三叉戟?)

定位损失比类别损失小得多,即类别分数很低,或者类别错误,什么原因,怎么改进?

Cascade rcnn原理,如何预测的,三个分类器的类别分数怎么取的?


百度、银联、网易、海康、阿里、网易游戏、滴滴机器学习算法面经

我的面试经历(一)旷世科技算法实习

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值