DeepMind重新设计高性能ResNet!无需激活归一化层

DeepMind的研究揭示了如何设计不依赖激活归一化层的高效ResNet和RegNet,其性能与FLOP预算相同的EfficientNet相当。文章介绍了Weight Standardization的改编版在确保信号传播和保持ReLU或Swish激活函数网络中信号方面的作用。实验结果显示,这种新方法在ImageNet上的表现极具竞争力。
摘要由CSDN通过智能技术生成

本文提出Normalizer-Free方法,可设计没有激活归一化层的深度残差网络!其能直接应用于ResNet、RegNet等网络,相同FLOP预算下,可比肩EfficientNet!代码已开源!

注1:文末附【计算机视觉细分垂直方向】交流群(含检测、分割、跟踪、医疗、GAN、Transformer等)

注2:整理不易,欢迎点赞,支持分享!

Characterizing signal propagation to close the performance gap in unnormalized ResNets
在这里插入图片描述

  • 作者单位:DeepMind
  • 大佬复现代码:rwightman/pytorch-image-models
  • 论文(已收录于ICLR 2021):https://arxiv.org/abs/2101.08692

Batch Normalization是几乎所有最新图像分类器中的关键组件,但同时也带来了实际挑战:它打破了batch内训练示例之间的独立性,可能会导致计算和内存开销,并经常导致意外的错误。

在这里插入图片描述

基于对初始化时深度ResNet的最新理论分析,我们提出了一套简单的分析工具来表征前向信号的传播,并利用这些工

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值