再一次总结卷积神经网络(局部连接、权值共享、池化层降采样),应付面试。
V1
全局平均池化层:取代Alexnet的全连接层,降低90%的参数量。
V2
使用两个3*3的卷积获得一个5*5卷积的效果,不仅减少了参数量,而且增加了一层非线性变换(这点很重要),使得CNN对特征的学习能力更强(这一句并不想写的) batch normalization(批量化),对数据进行标准化处理,使输出规范化到N(0,1)的正态分布,不至于每一层的输入的分布都在变换,导致训练变得困难,批量化之后,学习速率可以增大很多倍,训练时间大大缩短。(还有说有正则化的作用,没看出来,可以代替Dropout和LRN)
V3
一是引入了因式分解成小卷积,相较于V2的对称地拆分,V3采用了非对称的卷积结构拆分,可以处理更丰富的空间结构 二是进一步优化了Inception Module的结构,通过组合四种不同程度的特征抽象和变换来有选择地保留不同层次的高阶特征,这样可以最大程度的丰富网络的表达能力。