[卷积神经网络]课程:Deep convolutional models习题解析

这是<<卷积神经网络>>课程第二周的习题,一共10道。

image

从课程给出的众多卷积神经网络示例上看,卷积通常是减少宽高尺寸,增加通道数,比如:

image

答案为选项3

image

同样,经典的卷积神经网络通常是几个卷积层后面带一个池化层,接近输出的地方再加上全连接层,所以选择选项1和3

image

池化层用于减少宽/高,卷积层填充也有避免图像缩小过快的原因,但问题出在题目中的only,卷积层也可以减少宽/高,并不是总会填充的。
所以答案是False

image

理论上层数越多,训练误差越小,但实际上却并非如此,从下图可以看出,这也是引入残差网络的原因:

image

答案选择False

image

通常在激活函数之前加入前面层的激活层,从如下的课件也可以明显可以看出:

image

答案是选项3

image

参考Why do residual networks work?这部分的讲义:

image

另外增加跳跃连接通常能提高性能,所以第一种说法也是正确的。

答案 1、2

image

需要注意的是过滤器的channel数目等于前一层的通道数目,所以该1x1过滤器的大小为1x1x16,共16个参数,加上bias后17,所以答案是选项3

image

1x1过滤器通常用于缩减通道数量,而池化层用于缩减宽高,答案是1和3

image

Inception块通常组合1x1, 3x3, 5x5卷积和池化层,它们通常是在channel上堆叠。

在3x3、5x5卷积之前加上1x1卷积,通常是用来缩减通道数量,减少参数数量,通常被称作”Bottleneck layer”。

答案是1和3

2的说法在课程中并没有讲到,Inception块并不不是堆叠得越多越好,所以4不正确。

image

关于为什么选择开源实现,课程中讲的很详细了,值得注意的是选项4,Andrew Ng在课程中特意说到在竞赛中采用的技巧,在实际部署中很少采用,所以不要选。

答案是1和3

相关习题解析:

  1. Neural Network Basics习题解析
  2. [卷积神经网络]课程:The basics of ConvNets习题解析

image

  • 3
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

云水木石

但行好事,莫问前程

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值