[深度学习从入门到女装]Wide Residual Networks

论文地址:Wide Residual Networks

 

这是一篇ResNet的改进版

在之前ResNet的改进上都是对depth做改进,或者是block里边BN-CONV-RELU的顺序做改进,本文是对block的width做改进,也就是block中conv channel的数量

图1中a:普通的basic block

图1中b:bottleneck 就是使用1*1卷积进行降维之后,最后在使用1*1卷积进行升维,减少计算量

 

对于res block的改进有三种最简单的实现:

1、每个block增加更多的conv

2、widen conv 就是conv增加更多的channel

3、增加conv的filter size

 

在其他论文中已经提出小的filter size更有效,所以本文的filter size不超过3*3

下图是原始resnet

本文引入了两个参数,l为block里边conv layer的数量,k为channel的factor,如图所示,basic resnet中k=1,l=2

 

Type of convolutions in residual block

B(x,y)是指每个block中conv的filter size,比如B(3,1)就表示每个block中先有一个3*3卷积,再接一个1*1卷积

 

Number of convolutional layers per residual block

本文还测试了l的作用,使用d来表示block的数量,为了保证计算量统一,当l增加的时候,相应的减少d

Width of residual blocks

WRN-n-k来表示n个conv layer,k为widening factor

Tabel5为使用WRN-28-10的测试结果

Table9为使用WRN-40-10的测试结果

 

最后得出结论:

1、在不同深度的resnet中,widening都能增加performance

2、增加depth和width都有帮助(在参数不至于过高的情况下),stronger正则化很有必要

3、

 

Dropout in residual blocks

本文中在conv层之间增加dropout,并在ReLU后增加BN,如图1d所示

 

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值