AlexNet
这里使用了两个GPU来训练,因为当时的GPU不够强大
CONV1,2,4,5中的feature map的连接只在相同的GPU中有,而CONV3,FC6,FC7,FC8的feature map的连接会跨GPU
ZFNet
在AlexNet的基础上调了超参数
CONV1: 将 11x11 步长为4的卷积核换成了7x7步长为2的卷积核
CONV3,4,5 分别用了512,1024,512个卷积核
VGGNet
可以看到,VGG用了更深的网络
同时,3个33,步长为1的卷积层和1个77 的卷积层的感受野实际上是一样的,但是,使用的卷积核小意味着我们可以让网络更加深,并且为网络加入更多的非线性,相比于用7*7的卷积核每层的参数也更少
通过对VGG的参数分析可以看出,VGG使用的参数太多了!
在全连接层就将近有一个亿的参数
GoogLeNet
GoogLeNet拥有更深的网络,同时计算起来也非常有效率
左边的想法会导致卷积会变得越来越深,参数越来越多,而右边可以解决这个问题
ResNet
整个模型的设计是参照VGG进行设计的
越深的模型应该至少表现得和没那么深的模型一样好,因为可以恒等映射
但是事实上并不是这样的,因此作者提出了算差值的方法来训练网络,这样至少不会让深的模型表现得很差
这里作者提出了一个叫做bottleneck的模块,借鉴了GoogleNet的思想,这样可以不管上一层的深度如何,这一层的输入的深度都会是64
不过它纯是为了节省计算时间进而缩小整个模型训练所需的时间而设计的,对训练精度没有影响