深度学习经典网络(4)ResNet深度残差网络结构详解

0.引言 ResNet在2015年被提出,在ImageNet比赛classification任务上获得第一名,因为它“简单与实用”并存,之后很多方法都建立在ResNet50或者ResNet101的基础上完成的,检测,分割,识别等领域都纷纷使用ResNet,Alpha zero也使用了ResNet,所以可见ResNet确实很好用。下面我们从实用的角度去看看ResNet。1...
摘要由CSDN通过智能技术生成

0.引言

         ResNet在2015年被提出,在ImageNet比赛classification任务上获得第一名,因为它“简单与实用”并存,之后很多方法都建立在ResNet50或者ResNet101的基础上完成的,检测,分割,识别等领域都纷纷使用ResNet,Alpha zero也使用了ResNet,所以可见ResNet确实很好用。下面我们从实用的角度去看看ResNet。

1.ResNet意义

        总结:提出了一个identity

        随着网络的加深,出现了训练集准确率下降的现象,我们可以确定这不是由于Overfit过拟合造成的(过拟合的情况训练集应该准确率很高);所以作者针对这个问题提出了一种全新的网络,叫深度残差网络,它允许网络尽可能的加深,其中引入了全新的结构如图1;

图1 Shortcut Connection

残差指的是什么?

        其中ResNet提出了两种mapping:一种是identity mapping,指的就是图1中”弯弯的曲线”,另一种residual mapping,指的就是除了”弯弯的曲线“那部分,所以最后的输出是

        identity mapping顾名思义,就是指本身,也就是公式中的x,而residual mapping指的是“差”,也就是y−x,所以残差指的就是F(x)部分。

        为什么ResNet可以解决“随着网络加深,准确率不下降”的问题?

        除了实验证明外:

  • 52
    点赞
  • 291
    收藏
    觉得还不错? 一键收藏
  • 7
    评论
ResNet50是一种深度残差网络(Residual Network),其中的关键组件是Bottleneck Block,也称为三元组块。这种设计允许网络在增加深度的同时避免梯度消失和过拟合问题。Bottleneck Block由三个主要部分组成: 1. **扩张卷积(Expansion Convolution)**:通常是一个1x1的卷积层,其作用是减小通道数(feature map的维度),从而降低计算量,并有助于提取更高级别的特征。 2. **主卷积(Depthwise Convolution)**:这是一个深度卷积(depthwise convolution),它的每个滤波器只对输入的一个通道进行卷积操作,这样可以显著扩展网络的容量而保持计算复杂度相对较低。这个步骤实际上是一个逐点的卷积,因为它对每个输入通道应用一个单独的滤波器。 3. **收缩卷积(Compression Convolution)**:又是一个1x1的卷积层,将上一步的输出通道数恢复到原始的尺寸,这部分也叫做投影层(projection shortcut),使得可以直接加上原始输入,这就是所谓的残差连接(residual connection)。这使得网络能够学习到如何直接添加输入到输出,即使在很深的层次,也可以通过这些连接直接传播信息。 Bottleneck Block的优势在于它允许在网络中加入更多的卷积层,而不会导致模型变得过于深而导致性能下降。它通过引入瓶颈结构和残差连接,使训练变得更加容易,同时也提高了模型的性能。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值