注:深度好像就是channel w*h*c
根据b站up霹雳吧啦的讲解做的笔记 视频地址6.1 ResNet网络结构,BN以及迁移学习详解_哔哩哔哩_bilibiliR
6.2 使用pytorch搭建ResNet并基于迁移学习训练_哔哩哔哩_bilibili
ResNet网络解决梯度消失、爆炸,以及退化(我理解成随着层数的增加精度反而下降)问题
网络中亮点:1超深的网络结构
2提出residuaal模块
3使用batch normalization加速训练(丢弃drop out)
residual结构:
左边是针对网络层数较少的网络(