基本结构是卷积网络+分类网络。从alexnet到VGG到ResNet,网络的深度逐渐加深,网络的宽度整体变化不大。深度的增加使得训练的效率降低,但是batch normalization以及res残差结构的出现使得训练很深的网络成为可能,同时还非常高效。BN使得我们设置lr更为容易,且过拟合现象也得到一定的抑制,比dropout更好。整体而言分类问题还是比较简单
基本结构是卷积网络+分类网络。从alexnet到VGG到ResNet,网络的深度逐渐加深,网络的宽度整体变化不大。深度的增加使得训练的效率降低,但是batch normalization以及res残差结构的出现使得训练很深的网络成为可能,同时还非常高效。BN使得我们设置lr更为容易,且过拟合现象也得到一定的抑制,比dropout更好。整体而言分类问题还是比较简单