resnet
模型层数加深后效果会有退化,这不是过拟合的原因(训练和测试的误差都很高),也不是梯度消失的问题(有BN),因而这些极深的模型学偏了,忘记了初心,即学习"什么都不做"在网络加深的过程中会变得越来越困难。resnet通过恒等映射来解决上述问题,其中关键点在于映射的shortcut,示意图如下所示:
可以看出,模型拟合的输入+残差,而不是简单的一个输出,这样的一个好处是反向传播过程中梯度不会很快的衰减下去,示例图如下所示:
densenet
densenet比resnet还狠,它的shortcut不局限在一个block中,甚至可以延伸到很多层之前,示意图如下所示。
mobilenet
未完待续…