2019.09 网易面试小结

翻看博客看到之前的博客草稿,去年面试网易的小结,希望能有所帮助,有其他疑问欢迎提问,看到的话会及时回复。

1.BN、LN区别?具体实现?

Batch Normalization

   对于BN来说,每个channel(特征)是独立的,缺点:大家认为Batch Normalization的性能受到batch size的影响较大。尤其是在fully connect layer的时候。如果batch size等于1,则相当于没有作normalization。因为每个channel的均值就是他自己本身。在计算Normalization的时候每个特征彼此之间是独立的,互不影响的。

 BN在batch的维度上norm,归一化维度为[N,H,W],对batch中对应的channel归一化

Layer Normalization

   对于LN来说,每个sample是独立的,我们对表示每个sample的feature map进行normalization。缺点:有时候可能输入的特征,本身之间差距就比较大,不适合在整个特征内做normalization

 LN避开了batch维度,归一化的维度为[C,H,W]

Instance Normalization

IN 归一化的维度为[H,W];

Group Normalization

首先将N∗H∗W∗C 分成G组,即就是G个N∗H∗W∗C/G,对于GN来说,他介于IN和LN中间。我们对每个sample的每个group做归一化

2、增大类间间距,减小类内间距,都哪些损失函数可以实现?

3、所做东西的创新性体现在哪?

4、GAN网络种类?区别?

5、人脸检测与目标检测区别?

6、最新论文读过吗?介绍一下?

7、三维活体研究过吗?怎么实现,方案思路

8,题目大意是现有一个数据池,数据池中的数据是1到无穷大,选取n个数等于k,这样的方案有多少种?(叙述思路外加手撕代码

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值