python牛客刷题——深度学习第五弹

python牛客刷题——深度学习第五弹

!!!个人主页:个人主页
!!!推荐一款模拟面试、刷题神器,从基础到大厂面试题:点击此处进入牛客网注册学习吧
!!!今日的努力,明日的未来

  1. 下列哪一项在神经网络中引入了非线性?

     A. 随机梯度下降
     *B.修正线性单元(ReLU)*
     C. 卷积函数
     D. 以上都不正确
    

解析:B 修正线性单元是非线性的激活函数。对于非线性激活函数来说,它的一阶导数不为常数。虽然RELU在小于零和大于零是都是线性的,但是从整个定义域的角度考虑,它是个非线性激活函数。实际上,RELU的组合可以逼近任意函数。

2. 下图是一个利用sigmoid函数作为激活函数的含四个隐藏层的神经网络训练的梯度下降图。这个神经网络遇到了梯度消失的问题。下面哪个叙述是正确的?在这里插入图片描述

	A.第一隐藏层对应D,第二隐藏层对应C,第三隐藏层对应B,第四隐藏层对应A
	B.第一隐藏层对应A,第二隐藏层对应C,第三隐藏层对应B,第四隐藏层对应D
	C.第一隐藏层对应A,第二隐藏层对应B,第三隐藏层对应C,第四隐藏层对应D
	D.第一隐藏层对应B,第二隐藏层对应D,第三隐藏层对应C,第四隐藏层对应A

解析:A 由于反向传播算法进入起始层,学习能力降低,这就是梯度消失。换言之,梯度消失是梯度在前向传播中逐渐减为0, 按照图标题所说, 四条曲线是4个隐藏层的学习曲线, 那么第一层梯度最高(损失函数曲线下降明显), 最后一层梯度几乎为零(损失函数曲线变成平直线). 所以D是第一层, A是最后一层。

  1. 假设你有5个大小为7x7、边界值为0的卷积核,同时卷积神经网络第一层的深度为1。此时如果你向这一层传入一个维度为224x224x3的数据,那么神经网络下一层所接收到的数据维度是多少?

     A.218x218x5
     B.217x217x8
     C.217x217x3
     D.220x220x5
    

解析:A 边界值是0指不打padding,尺度必然缩小,又stride是整数,至少是1,满足条件只有218*218。第一层的dims是1,5个卷积核concat,输出的dims是5

  1. 在CNN网络中,图A经过核为3x3,步长为2的卷积层,ReLU激活函数层,BN层,以及一个步长为2,核为22的池化层后,再经过一个33的的卷积层,步长为1,此时的感受野是()

     A. 10
     B. 11
     C. 12
     D. 13
    

D 感受野的意思是现在的一个像素对应原来的多少个像素

倒着推导: “再经过一个33的的卷积层,步长为1”得到的一个像素对应原来33个像素 “33像素对应 “一个步长为2,核为22的池化层” 之前的 66或者77 在倒推 对应 第一次卷积“核为3x3,步长为2的卷积层”之前的 1313或者1414或者1515或者1616 答案中只有13,因此选13

  1. 下列是caffe支持的loss优化的方法的是()

     A. Adam
     B. SGD
     D. AdaDelta
     D. Nesterov
    

解析:ABCD

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值