resnet 论文_论文笔记 - ResNet

本文详细解析2016年Kaiming He的CVPR论文《Deep Residual Learning for Image Recognition》,介绍了ResNet的残差学习思想,通过短路机制实现恒等映射,解决了深度网络中梯度消失和模型退化问题。ResNet网络结构与Plain Network对比展示了其优势,并详述了实现细节,包括数据预处理和训练策略。
摘要由CSDN通过智能技术生成

d4d0ea70c82f88b19acb96e92df34a96.png

论文信息

  • 年份:2016
  • 作者:Kaiming He
  • 会议/期刊:CVPR
  • 论文地址:Deep Residual Learning for Image Recognition
  • 源码:torchvison resnet

论文解读

Abstract

作者指定了网络层学习的目标为残差函数,作者提出了一种残差网络结构来训练更深的网络模型,并在大量的实验中验证了该残差结构能够随着网络模型的变深而获益,在ImageNet上测试了152层的残差网络,并取得了ILSVRC 2015分类任务第一名。

1 Introduction

深度网络模型通过端到端、多层级的方式抽取了低、中、高级别的特征,并且可以通过增加网络层的数量来丰富特征的级别。事实表明,越深的网络模型能够带来更好的分类效果。

那是不是,为了获得更好的模型,只要增加网络的深度就可以了呢?显示不是,梯度消失和梯度爆炸是其中的一个问题,不过该问题可以通过:1)初始化;2)BN等方式解决。当更深的网络能够开始收敛时,就会出现降级问题:随着网络深度的增加,准确度变得饱和(这可能不足为奇)然后迅速降级。

d242bcdee69e0d9cc964802102342ff4.png

但是作者提出,如果增加的网络深度每层只做identity mapping的话,那么更深的网络模型的表征能力是不会比较浅的网络差的。而随着网络越深,模型效果降级的现象表明了,网络越深,模型会变得难训练,甚至连identity mapping都变得困难。

为此,作者提出了残差网络来解决这个问题。形式上,假设所需的底层映射表示

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值