Deep Residual Learning for Image Recognition(ResNet网络)

本文介绍了残差网络在图像识别中的优势,它能通过增加深度提高准确性,解决了深度网络中精度饱和和训练错误升高的问题。残差学习通过快捷连接实现,即使在152层的深度下仍能有效工作。网络结构包括标准初始化和中间标准化层。当输入和输出维度相同时,使用直接相加;不同则通过线性映射匹配维度。
摘要由CSDN通过智能技术生成

适用性:

      残差网络很容易优化,并可以通过增加深度来提高准确性。但随着网络深度的增加,精度会达到饱和,然后快速下降。这种不是过拟合,为适合的深度模型添加更多的层会导致更高的训练错误。残差特性不仅可以用在全连接中,也可以用在卷积网络中。

文章中提出解决梯度消失的方法:标准初始化、中间标准化层(batch normalization)。

Shortcut connection:快捷连接(是那些跳过一层或更多层的连接,并将其输出添加到堆叠层的输出。)

152层的残差网络是目前最深的网络,并且它的复杂性还是低于VGG网络。

具体过程:

我们每隔几个堆叠层采用残差学习。一个构建块building block如下图所示,层的个数可以随意。

当输入X的维数与输出F的维数相同时,Figure 2的表达式如1所示,在这种情况下既没有增加额外的参数,也没有增加计算量。

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值