ResNet笔记

1、bottleneck
主要有两种:
1、卷积ReLu 卷积
2、先利用11卷积对输入特征进行降维,再利用33,再利用1*1
BN和全局平均池化

  1. 网络较瘦,控制了参数数量

  2. 存在明显层级,特征图个数逐层递进,保证输出特征表达能力

  3. 使用了较少的池化层,大量使用降采样,提高传播效率

  4. 没有使用Dropout,利用BN和全局平均池化进行正则化,加快了训练速度

网络加深 会出现模型退化
残差网有助于解决梯度消失和梯度爆炸问题,让我们在训练更深网络的同时,又能保证良好的性能。

在这里插入图片描述
shortcut Connections
在ResNet网络结构图中,shortcut connections就是identity mapping在网络结构图中的具体实现,也就是右侧弯曲的那条线。它既不会增加额外的更多的参数,也不会增加网络计算的复杂度。
Plain Networks(平原网络)
平原网络是作者对残差网络改进之前的简单堆叠多个layers的称呼,是和残差网络(Residual Networks)相对的一个概念。
Residual Mapping(残差映射)

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

DPN是ResNeXt和DenseNet的合体
在这里插入图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值