四、经典网络7(Inception V1)

Inception v1

相比于 GoogLeNet 之前的众多卷积神经网络而言, inception v1 采用在同一层中提取不同的特征(使用不同尺寸的卷积核),并提出了卷积核的并行合并(也称为 Bottleneck layer),如下图

 

这样的结构主要有以下改进:
1. 一层 block 就包含 1x1 卷积, 3x3 卷积, 5x5 卷积, 3x3 池化 ( 使用这样的尺寸不是必需的,可以根据需要进行调整) 。这样,网络中每一层都能学习到 稀疏 3x3 5x5 )或 不稀疏” 1x1 )的特征,既增加了网络的宽度,也增加了网络对尺度的适应性;
2. 通过 deep concat 在每个 block 后合成特征,获得非线性属性。虽然这样提高了性能,但是网络的计算量实在是太大了,因此 GoogLeNet 借鉴了Network-in-Network 的思想,使用 1x1 的卷积核实现降维操作,以此来减小网络的参数量(这里就不对两种结构的参数量进行定量比较了 ) ,如图所示。

最后实现的 inception v1 网络是上图结构的顺序连接,其中不同 inception模块之间使用 2x2 的最大池化进行下采样,如表所示。

 

如表所示,实现的网络仍有一层全连接层,该层的设置是为了迁移学习的实现(下同)。

在之前的网络中,最后都有全连接层,经实验证明,全连接层并不是很必要的,因为可能会带来以下三点不便:

网络的输入需要固定

参数量多

易发生过拟合
实验证明,将其替换为平均池化层(或者 1x1 卷积层)不仅不影响精度,还可以减少。
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

满满myno

非常感谢对我创作的支持,爱你呦

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值