注:深度好像就是channel w*h*c
根据b站up霹雳吧啦的讲解做的笔记 视频地址6.1 ResNet网络结构,BN以及迁移学习详解_哔哩哔哩_bilibiliR
6.2 使用pytorch搭建ResNet并基于迁移学习训练_哔哩哔哩_bilibili
ResNet网络解决梯度消失、爆炸,以及退化(我理解成随着层数的增加精度反而下降)问题
网络中亮点:1超深的网络结构
2提出residuaal模块
3使用batch normalization加速训练(丢弃drop out)
residual结构:
左边是针对网络层数较少的网络(18 34)使用的残差结构,右边对网络层数较多(50 101 152)的网络使用残差结构
主分支与侧分支输出的特征矩阵相加,他们的shape需要一样
3*3卷积核,深度为256~
从下面的式子可以看出,右边的网络所需计算量更小