GoogLeNet Inception v1,v2,v3,v4及Inception Resnet介绍

本文详细介绍了GoogLeNet及其进化版Inception v1至v4,以及Inception-ResNet v1和v2的结构和改进,重点探讨了Inception模块的优化,包括使用1x1卷积、批量归一化和残差连接等,旨在提升模型性能和降低计算复杂度。
摘要由CSDN通过智能技术生成

GoogLeNet,作为 ILSVRC-2014的分类和检测任务的冠军,相比于当年分类任务第二名VGG Net的对于小卷积层(3x3)的简单堆叠,GoogLeNet提出更具创意的Inception模块,虽然网络结构比较复杂,但是模型参数量却降低了,仅为AlexNet的1/12,而VGGNet的参数量却是AlexNet的3倍,但模型精度却比VGG要跟高。

正是因为GoogLeNet的高性能,后续继续在Inception v1版本上继续优化,出现了Inception v2,Inception v3,Inception v4,Inception-ResNet v1,Inception-ResNet v2等优化模型,下面我们来具体看下。

一、Inception v1

首先,我们需要明确,提高深度神经网络性能最直接的方式是增加深度和宽度,但是这样会带来两个问题:

1.更大的尺寸通常意味着更多的参数,这会使增大的网络更容易过拟合,尤其是在训练集的标注样本有限的情况下。

2.会耗费大量计算资源。

 

GoogLeNet的设计理念为:

1.图像中的突出部分可能具有极大的尺寸变化。

2.信息位置的这种巨大变化,卷积操作选择正确的核大小比较困难。

3.对于较全局分布的信息,首选较大的核,对于较局部分布的信息,首选较小的核。

4.非常深的网络容易过拟合。它也很难通过整个网络传递梯度更新。

5.简单地堆叠大卷积运算导致计算复杂度较高

出于上面的考虑,提出了如下图所示的初始Inception 模块

对前一层的输入进行并行并行卷积操作,使用多个感受野大小的卷积(1x1, 3x3, 5x5).

但是上述初始Inception ,参数量过大,从而导致计算量过大。

受Network in Network的启发,作者使用1x1卷积对特征图通道数进行降维,这就是Inception v1的最终网络结构,如下:

  • 3
    点赞
  • 16
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值