经典卷积神经网络结构汇总

Inception

Inception网络首次提出是在2014年,这个版本被称为V1,他的深度是22,比AlexNet的8层和VGG Net的19层都要深,但其参数量只有500万,仅为AlexNet参数量(6000万)的1/12。Inception V1参数少效果好的原因除了模型层数更深,表达能力更强外,还有两点:

  1. 去除了最后的全连接层,改用全局平均池化层(图片尺寸变成1x1)取代它,去除全连接层后模型训练更快并减轻了过拟合。
  2. 精心设计了Inception Module提高了参数的利用效率,一般来说卷积层增加表达能力主要依靠增加通道数,但副作用是计算量增大和过拟合,NIN(Network In Network)则拥有更强的表达能力,允许在输出通道之间组合信息,因而效果更明显。

Inception Module的基本结构有四个分支:

  1. 第一个分支对输入进行1x1的卷积,1x1的卷积是一个非常优秀的结构,他可以跨通道组织信息,提高模型的表达能力,同时可以对通道进行降维和升维。
  2. 第二个分支先使用1x1的卷积,然后连接3x3的卷积,相当于进行了两次特征变换。
  3. 第三个分支先是1x1的卷积然后连接5x5的卷积。
  4. 第四个分支先使用3x3的最大池化后再连接1x1的卷积。

除了V1,Google Inception Net还包括V2-V4版本:

  • V2学习VGG Net,用两个连续的3x3卷积代替5x5的大卷积,用以减轻参数降低过拟合;另外还提出著名的Batch Normalization方法,这是一个非常有效的正则化方法,可以让大型卷积网络的训练速度加快很多倍,同时收敛后的准确率也有大幅提高;增大学习速率并加快衰减速度以适应BN规范化后的数据;去除Dropout并减轻L2正则;去除LRN;减少数据增强过程中对数据的光学畸变等。
  • V3网络主要有两方面的改造:一是将一个较大的二维卷积拆成两个较小的一维卷积,这样减少了大量参数,加速运算并减轻了过拟合,同时增强了一层非线性扩展模型表达能力;二是优化了Inception Module的结构,除了在Inception Module中使用分支,还在分支中使用了分支。
  • V4相比V3主要结合了微软的ResNet。

Inception V3网络结构
在这里插入图片描述在这里插入图片描述

参考

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值