【深度学习】ResNet (残差) 网络

Introduction

ResNet (残差) 网络 由He Kaiming、Sun jian等大佬在2015年的论文 Deep Residual Learning for Image Recognition 中提出。

添加了一些直达通道,相当于加入了约束。使得某些原本就应为identity mapping的module,直接获得identity mapping的能力。

个人经验

  • ResNet在不少任务上倒不一定真的能提高精度,但是起码能保证收敛速度快很多。

起因

2015年之前,在层数不多的深度网络模型中,人们通过 设置 合理的权重初始化改进激活函数 等等一系列手段,有效缓解了梯度消失,使得深度网络训练变得可行。

于是炼丹师们觉得,简单地累加网络层,训练误差(低误差意味着更强大的表达能力)在模型收敛后maybe会进一步降低。结果不仅没有,误差反而更大了(下图为20层和56层的常规网络在CIFAR-10数据集上的 训练错误率[左图]测试错误率[右图]):
这里写图片描述

研究发现,原来 如果继续加大网络的层数,梯度消失这货就会又跑出来作祟了。原来那些对应措施已经不够用了,是时候开始鸟枪换炮了。

于是 ResNet (残差) 网络 在2015年便应运而生:
这里写图片描述

残差模块

残差网络是由 残差模块 垒叠。残差模块 又分为 常规残差模块[左图]瓶颈残差模块 (bottleneck residual block)[右图]
这里写图片描述

瓶颈残差模块 中的1×1卷积能够起到升降维的作用,从而令3×3卷积可以在较低维度的输入上进行。在非常深的网络中,该设计可大幅减少计算量。

残差网络

由于 残差模块 的引入,有效缓解了梯度消失的影响,使得网络模型层数可以大大增加。

下图为 ResNet-34网络VGG-19网络 的深度对比:
这里写图片描述

下图为 ResNet-152网络VGG-19网络 的深度对比。深度差距就更夸张了:
这里写图片描述

随着层数的加深,模型的表达能力自然跟着水涨船高:
这里写图片描述

ResNet横扫当年 ILSVRC 和 COCO 等竞赛一系列子任务的第一名,成为网络结构的主流,并影响至今。

Version

ResNet自身也有多个版本。基本上是层数越深,误差越小,模型表达能力越强:
这里写图片描述

  • 3
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值