ResNet网络结构

 注:深度好像就是channel w*h*c

根据b站up霹雳吧啦的讲解做的笔记 视频地址6.1 ResNet网络结构,BN以及迁移学习详解_哔哩哔哩_bilibiliR

6.2 使用pytorch搭建ResNet并基于迁移学习训练_哔哩哔哩_bilibili

ResNet网络解决梯度消失、爆炸,以及退化(我理解成随着层数的增加精度反而下降)问题 

 

 网络中亮点:1超深的网络结构

                        2提出residuaal模块

                        3使用batch normalization加速训练(丢弃drop out)

 residual结构:

左边是针对网络层数较少的网络(18 34)使用的残差结构,右边对网络层数较多(50 101 152)的网络使用残差结构

主分支与侧分支输出的特征矩阵相加,他们的shape需要一样

3*3卷积核,深度为256~

从下面的式子可以看出,右边的网络所需计算量更小

  • 1
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值