GoogleLeNet(Inception-V1)论文及代码解析

本文详细解析了GoogleLeNet(又称Inception-V1)论文及其网络结构,该模型在2014年ILSVRC竞赛中表现出色。Inception模块通过结合不同尺寸的卷积层,实现网络的深度和宽度增加,同时减少计算量和过拟合。文章还提供了TensorFlow代码分析,帮助理解模型实现。
摘要由CSDN通过智能技术生成

目录

  • GoogleLeNet论文

  • tensorflow代码分析

  • 小结

GoogleLeNet论文

       GoogleLeNet是2014年ImageNet中ILSVRC14竞赛的冠军,和VGG网络是同一届,VGG网络是当年竞赛的亚军。但是实际上两个网络的TOP-5错误率相差并不多,GoogleLeNet的网络结构相对VGG复杂一些,是一个22层的网络,并且提出了一种Inception的结构,是一个很大的进步。

       论文地址 论文的标题是“Going deeper with convolutions”,跟VGG一样也是遵循需要将网络设计的更深的思想。网络名字取名为GoogleLeNet是为了向CNN网络的开山鼻祖LeNet致敬。

1.前言

      论文中作者花了大量的篇幅来描述当前分类和检测网络取得的成绩,以及遇到的问题,然后引出作者对现状改进的思路。

      众所周知,改进深度神经网络最直接的方式是增加网络的大小,包括增加深度和宽度。增加深度就是增加神经网络的层数,增加宽度就是增加每一层的units个数。但是增加了深度和宽度会带来两个问题:1.因为参数变多而使得网络更加容易overfitting,反而降低了精度。2.会大大增加计算量,而且可能训练出来部分参数最终为0,这样在计算资源有限的情况下浪费了计算资源。所以我们最终的目标是:减少参数,减少计算量,增加深度,增加宽度。

       解决方法就是将全连接替换为稀疏连接结构,但是现有的计算方式对非均匀的稀疏计算效率非常低,所以作者提出了自己的改进方式。

2.Inception模型

inception-v1-block

       上图是作者提出的两种Inception的模型,b模型是a模型的改进版本。

       先说a模型,论文中说是以一种稠密组件去逼近和替代一个最优的局部稀疏结构。我的理解是这种连接模型既会有四种连接方式带来的信息汇总,而且相对直接3x3的Conv进行连接的方式参数反而有所减少。为何参数会有减少呢?举个下图的例子(只是举个例子,并不是真实使用情况):

        接着作者又发现,虽然参数量是有减少,但是减少的并不是太多,而且如果输入的数据channel值比较大,参数量仍然会比较大,所以作者提出了b模型。b模型相对a模型而言,在使用3x3或者5x5的Conv连接之前用了1x1的Conv进行降维,这样会使参数量再一次减少,并且在1x1Conv后也使用非线性激活就增加了网络的非线性。参数量变化如下图(只是举个例子,并不是真实使用情况):

        总之,Inception模型的好处是既能增加网络的深度和宽度,又不会增加计算量,而且稀疏连接的方式还能有助于减少过拟合。

3.网络结构

论文中的网络结构如下图:

structure

  • Input为224x224x3的RGB图片,同样减去每个颜色通道的均值(同vgg网络一样)
  • #3x3 reduce表示在3x3Conv之前1x1Conv连接的channel数量,同样#5x5 reduce表示在5x5Conv之前1x1Conv链接的channel数量.
  • pool proj表示inception中max pooling后的1x1Conv连接的channel数量
  • 只计算有参数的层数是22层,所有的卷基层都用Relu激活,包括inception内部的卷积
  • 作者发现去掉最后的FC,改为avg pool,精确度有提升,但是还要保留后面的dropout

另外作者担心这么深的网络越往后信息的传播能力会受损,但是作者发现中间层的网络还带有比较多的信息,因此在inception(4a)和inception(4d)后面增加了一个比较小的网络,做了softmax输出,和最后的softmax输出相加,但是权重设置为0.3.也就是最后的output是softmax2+0.3*softmax1+0.3*softmax0

                                                            inception(4a)处的softmax

                                                     inception(4d)处的softmax

                                               最后output的softmax

对softmax0和softmax1处的小网络的说明:

  • average pool是5x5 filter size,stride是3,inception(4a)会得到4x4x512的output,inception(4d)会得到4x4x528的output
  • Conv 1x1是128个filter,后面跟着Relu进行激活
  • 6
    点赞
  • 17
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值