Inception简介

参考文章:

一文概览Inception家族的「奋斗史」

Inception v1(ILSVRC14):

产生动机:

自2012年AlexNet做出突破以来,直到GoogLeNet出来之前,大家的主流的效果突破大致是网络更深,网络更宽。但是纯粹的增大网络有两个缺点:过拟合和计算量的增加。同时还有梯度弥散问题。方法当然就是增加网络深度和宽度的同时减少参数。

但结构稀疏性和运算能力有矛盾,需要既能保持网络结构的稀疏性,又能利用密集矩阵的高计算性能,

所以Inception应运而生。(可以将稀疏矩阵聚类为较为密集的子矩阵来提高计算性能)

增加了多种核 1x1,3x3,5x5,还有直接max pooling的,为了避免concat起来的feature map厚度将会很大,在3x3前,5x5前,max pooling后分别加上了1x1的卷积核起到了降维的作用。

 

Inception V2

https://i-blog.csdnimg.cn/blog_migrate/3791314dea1fdbaf6a0e900979bb588a.jpeg

相对于Inception V2, Inception V2 学习了 VGG 用两个3´3的卷积代替5´5的大卷积,在降低参数的同时建立了更多的非线性变换,使得 CNN 对特征的学习能力更强。

另外提出了著名的 Batch Normalization(以下简称BN)方法.

Inception V3

https://i-blog.csdnimg.cn/blog_migrate/99bd645ba5665f67e84f65e207a6e3f9.pnghttps://i-blog.csdnimg.cn/blog_migrate/d59cfc1f65a3b9b9a37fc60e3f8835c5.png https://i-blog.csdnimg.cn/blog_migrate/76074e9f677b5b5d28ff76e658dd52a0.png

引入了 Factorization,将一个较大的二维卷积拆成两个较小的一维卷积,比如将3´3卷积拆成1´3卷积和3´1卷积,一方面节约了大量参数,加速运算并减轻了过拟合,同时增加了一层非线性扩展模型表达能力,除了在 Inception Module 中使用分支,还在分支中使用了分支(Network In Network In Network)

Inception V4

https://i-blog.csdnimg.cn/blog_migrate/c32c50ba4e435a44e08f26b3f9c6806b.png

 

 

  • 0
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值