Lenet,1986年
Alexnet,2012年
GoogleNet,2014年
VGG,2014年
Deep Residual Learning,2015年
AlexNet更强调了全连接层的作用,它用了两个全连接层,那么为了减少权重的数目,才引出了dropout这个概念
输入尺寸:227*227像素(因为竞赛的需要)
卷积层:好多(因为输入尺寸的需要)
降采样层:好多(因为输入尺寸的需要)
标准化层:这个反正就是一个公式
输出:1000个类别(因为竞赛的需要)
AlexNet的结构图,是由八个模块组成的。
https://www.jianshu.com/p/58168fec534d
googlenet,14年比赛冠军的model,这个model证明了一件事:用更多的卷积,更深的层次可以得到更好的结构。
VGG有很多个版本,也算是比较稳定和经典的model。它的特点也是连续conv多,计算量巨大(比前面几个都大很多)。
http://www.sohu.com/a/134347664_642762
VGGNet 2014年
牛津大学计算机视觉组(Visual Geometry Group)
通过反复堆叠3*3的小型卷积核和2*2的最大池化层,VGGNet成功地构筑了16~19层深的卷积神经网络。
每次池化后刚好缩小一半,信道数目不断增加一倍。
ResNet残差网络
https://blog.csdn.net/linolzhang/article/details/71380668