深度学习实习面试总结

上周去参加一个深度学习实习的面试,总的来说,比较惨,虽然也答出来不少,但是很多东西自己没有认真关注过,所以就很狼狈,所以在这里记录下,能回忆起的一点东西吧。接下来的几个问题都是自己根据查阅的博客以及资料总结的,所以如果有任何错误,希望能够批评指正!

1、关于损失函数的

写出cross entropy的计算公式

                                                    H\left ( p,q \right )=-\sum_{x}^{ }p\left ( x \right )logq\left ( x \right )

因为交叉熵一般会与softmax回归一起用,这里也把softmax函数顺带提一下

                                                   softmax(y)_{i} =y_{'}^{i} =\frac{e^{y_{i}}}{\sum_{j=1}^{n}e^{y_{i}}}

对应的函数:cross_entroy = tf.nn.sparse_softmax_cross_entropy_with_logits(labels=tf.argmax(y_, 1), logits=y)

2、关于激活函数的

ReLU函数与sigmoid的区别:

sigmoid会导致梯度弥散,而且计算耗时,ReLU解决了部分梯度弥散问题,而且收敛速度快。

3、关于卷积网络参数计算

一个是卷积层的计算,例如,卷积之后输出矩阵的尺寸大小以及深度

使用全0填充时:out_{length}=\left \lceil in_{length}/stride_{length} \right \rceil

                           out_{width}=\left \lceil in_{width}/stride_{width} \right \rceil

不使用全0填充out_{length}=\left \lceil (in_{length}-filter_{length}+1)/stride_{length} \right \rceil

                        out_{width}=\left \lceil (in_{width}-filter_{width}+1)/stride_{width} \right \rceil

至于输出的深度,与卷积核的个数相同。

计算卷积层的参数个数:filter_{length}*filter_{width}*通道数*卷积核个数+卷积核个数通道数*卷积核个数+卷积核个数

池化层的输出尺寸大小计算方法与卷积层一样,而不会改变深度

4、写出SGD的计算公式

这个熟练的话可以直接写出来,不熟练的话推导一下也是很简单的,推导的时候建议画一个两层网络的图,这样可以防止书写的时候写错符号。

接下来就该悲催了,因为本人都是自己摸索的一点东西,其实并没有系统的进行学习,所以很多东西都是听过见过没用过,答不上来。

5、LSTM中input Gate、output Gate、forget Gate、h_{t}、cell更新等的计算公式

因为没有用过LSTM所以理解并不深刻,对公式推导也没很深的去研究,所以,当时一脸迷茫,现在赶紧补。

forget gate:              f^{t}=\sigma (W_{f}h^{t-1}+U_{f}x^{t}+b_{f})

input gate:               i^{t}=\sigma (W_{i}h^{t-1}+U_{i}x^{t}+b_{i})              a^{t}=tanh (W_{a}h^{t-1}+U_{a}x^{t}+b_{a})

cell:                       C^{t}=C^{t-1} \odot f^{t}+i^{t} \odot a^{t}

output gate:            o^{t}=\sigma (W_{o}h^{t-1}+U_{o}x^{t}+b_{o})             h^{t}=o^{t} \odot tanh(C^{t})

LSTM CELL

具体的推导https://www.cnblogs.com/pinard/p/6519110.html

6、FaceNet的损失函数并简述下网络结构

闭门造车的最严重后果就是。。。我对近几年的新网络了解的真很少。这个也没写出来,虽然很简单,也不能发表更多自己的见解,汗颜。

                                                \sum_{i}^{N}[\left \| f_{(x_{i}^{a})}-f_{(x^{p}_{i})} \right \|^{2}_{2}-\left \| f_{(x_{i}^{a})}-f_{(x^{n}_{i})} \right \|^{2}_{2}+\alpha ]_{+}

网络结构简述的话,前半部分为卷积神经网络,然后使用L2归一化,接下来是嵌入层,最后使用三元组损失函数。根据面试官的问题,再展开回答就好了。

其实还有很多问题,但是因为大多数没听过没见过,也就记不住了,就先记录到这,还需要加倍努力!

  • 2
    点赞
  • 14
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值