ResNet学习笔记

这篇博客探讨了在卷积神经网络中,随着层数加深出现的梯度消失问题及其导致的网络性能下降。为了解决这一问题,文章介绍了残差连接的概念,通过保留原始输入并将其与经过多层非线性转换后的输出相加,使得网络能够更容易地传播梯度。此外,还讨论了如何通过填充0和1*1卷积来保持维度一致,以实现残差学习。这种方法不仅不增加额外参数,还保持了反向传播的有效性,从而改善深度学习模型的训练效果。
摘要由CSDN通过智能技术生成

最大亮点:采用残差连接解决梯度消失和网络退化问题

卷积神经网络依靠堆叠更深的层数能够有很大的性能提升,但是当深度超过一定范围后,会出现梯度消失的问题,网络的性能会迅速恶化。

残差连接结构:在这里插入图片描述
设输入为X,原恒等变换输出为H(X)。当采用残差连接时,X经过堆叠的非线性转换层(可以堆叠多层)后,得到残差F(X),然后将F(X)+X代替原H(X)作为输出。总体来说,残差层没有增加新的参数,不会导致计算量的增大。同时,依然能够采用反向传播的方法求梯度。注:F(X)与X的维度一致才能相加,故而提出两种方法增加维度(1)填充0增加维度(2)1*1Conv增加维度。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值