WRN详解

WRN

《Wide Residual Network》

1 提出问题

​ 随着卷积神经网络模型的发展,网络的深度问题也一直被关注。到底是选择浅层网络好还是深层网络好?这个问题也一直没有被解答。

​ ResNet中提出的bottleneck块(如下图)进一步增加了网络的深度。bottleneck块中加入了1*1的conv,主要用于embedding和减少参数。但bottleneck进一步使得网络变得更深更窄(deeper,thiner)。ResNet最大深度已经达到了1001层。

在这里插入图片描述

​ ResNet深度的增加也带了一定的问题:首先,随着深度增加,模型中的参数数量也大量增加,给模型训练带来了一定困难,需要使用各种正则化方法解决过拟合问题;其次,深度过大,使得残差结构中F(x)的激活值很小,对模型最终结果的贡献也减少了,模型的特征重用减弱。

​ 实验表明,Residual Netwrok的优秀效果主要来自于残差结构,而不是网络的深度。针对这一结果,文中尝试增加网络宽度来改进模型。

2 解决方法<

  • 1
    点赞
  • 12
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值