WRN[论文笔记]

WRN是一种深度学习模型,旨在解决深度残差网络中的梯度消失问题。通过减少网络深度,增加残差块的宽度,WRN表现出更好的性能和更快的训练速度。论文中,作者比较了不同结构的残差块,并在CIFAR-10、CIFAR-100、SVHN和ImageNet等数据集上进行了实验,证明了宽度增加对模型性能的提升。此外,将dropout添加到卷积层而非Identity连接也有助于提高模型性能。
摘要由CSDN通过智能技术生成

论文: Wide Residual Networks

论文地址

简介

随着模型深度的加深,梯度反向传播时,并不能保证能够流经每一个残差模块的权值,以至于它很难学到东西.训练十分深的残差网络仍会有特征重用消失的问题,训练速度会减慢.

wide residual networks (WRNs)减少深度,但是增加了残差块的宽度.作者希望使用一种较浅的,但是宽度更宽的模型,来更加有效的提升模型的性能.

说明残差网络的能力主要由残差block提供,网络深度只有补充性的作用

WRN

在这里插入图片描述

如上图所示,a,b是Resnet提出的残差块.分别为Basic和Bottleneck block

而c,d是本文提出的更宽的残差块.c是加宽的Basic block.

另外前人把dropout插入到残差网络的Identity连接上面,会导致性能下降.而作者认为应该像d一样,把dropout插入的卷积层之间.

ResNet原文使用了三种Residual Block,output channel分别为16,32,64.网络的深度为6*N+2.

而本文作者通过增加output channel的数量来使模型变得更wider,他在output channel都增加了系数k

引入两个因子:

  • 深度因子l,表示一个block中包含的卷积层数量
  • 宽度因子k,卷积层输出特征图数量的倍数

下表显示了本文网络的具体配置,k控制残差block的宽度

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值