ResNet系列及其变体(一)—ResNetv1

本文介绍了ResNetv1的基本原理和解决深度网络退化问题的思路。通过学习残差函数,ResNet克服了深层网络训练困难的问题,增强了网络的表达能力和收敛速度。残差单元包括BasicBlock和Bottleneck结构,适应不同深度的网络需求。此外,还讨论了如何处理不同维度的短路连接。
摘要由CSDN通过智能技术生成

本系列旨在介绍ResNet相关系列及变体的基础知识,本篇主要介绍ResNetv1,其他介绍见如下blog目录:

ResNet系列及其变体目录


ResNetv1

Deep residual learning for image recognition

Resnet作为最基础原始的网络结构,需要深刻理解原理。

发现问题

        理论上网络越深效果越好,因为CNN越深越能提取到更丰富更抽象的特征。但是实验发现深度网络出现了退化问题(Degradation problem):网络深度增加时,网络准确度出现饱和,甚至出现下降。(观察知并不是过拟合问题,深层网络存在着梯度消失或者爆炸的问题,这使得深度学习模型很难训练。但是现在已经存在一些技术手段如BatchNorm来缓解这个问题)。进一步发现,深层网络中的一些层很难直接拟合这个恒等映射函数H(x) = x。于是以此为出发点,提出残差思想。

解决问题

        把网络设计为 H ( x ) = F ( x ) + x H(x) = F(x) + x H

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值