1 Inception v1
传统的ConvNet 是将Convulution layer stack 在一起,Inception 最大的改变就是Inception 模块叠加的形式构造网络,按照论文里面的是用Inception 近似一个稀疏结构。
将1*1,3*3 ,5*5 的conv 和3*3 的pooling stack 在一起,既增加了网络的宽度,又增加了网络对尺度的适应性。
2 V2
一方面加入了BN层,减少了internal Convariate shit ,使每一层的输出都规范化到N(0.1) 。另一方面学习VGG 用2个3*3 的conv 替代 模块中的5*5,既降低了参数数量,也加速计算。
3 V3
7*7 的卷积层替换为3个3*3 的卷积
第一块INception 变成了3个
第一块Inception 是传统的
第二块Inception 是5*5 替换成了两个3*3 的
第三块Inception 是1*n 和n*1
V3 最重要的改进是分解,将7*7 分解成两个一维卷积(1*7,7*1) ,3*3 也是一样(1*3,3*1) ,可以加速计算又可以将1个conv 拆成2个conv,增加网络的深度和非线性,另一个值得注意的是网络输入从224*224 变成299*299
Inception-v4 :
在V3 的基础上增加了残差结构
残差网络的shortcut 结构又叫做skip connection,尽量缩短前层和后层之间的连接。
研究Inception 模块结合Residual Connection 能不能有改进,发现ResNet 的结构可以极大的加速训练,同时性能也有提升,得到一个Inception-ResNet v2 的网络,同时还涉及了一个更深更优化的Inception v4 网络,能达到与Inception ResNet v2 相媲美的性能。