EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks (2019)论文笔记

EfficientNet论文探讨了在有限计算资源下,如何通过结合增加深度、宽度和图像分辨率(compound scaling method)来优化模型性能。这种方法在保持高效的同时,提升了模型准确率,例如在ImageNet上实现了84.4% top-1和97.1% top-5的准确率,同时减少了8.4x的参数量和6.1x的计算速度。相比传统仅改变单一维度的规模调整,复合缩放能更有效地提升模型效果。
摘要由CSDN通过智能技术生成

论文链接: EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks.
代码链接: tensorflow.

简介

加深扩大神经网络(model scaling up)可以有效提升模型的准确率,但是计算资源是有限的。本文讨论了在有限的运算资源下,通过增加深度(网络层数)、增加宽度(每层通道数)、增加图像分辨率三种网络扩张方式的叠加来达到最优准确率。该方法称为compound scaling method。该拓宽网络的方法附加于现有的state of art级网络可以有效提高准确率。基于GPipe的EfficientNet-B7在ImageNet达到了84.4% top-1 / 97.1% top-5的准确率,并且比现有的卷积网络小8.4x,快6.1x。EfficientNet家族在其他数据集上也达到了state of art的结果,CIFAR-100 (91.7%), Flowers (98.8%)等。

传统Scaling up的方法

Model Scaling
传统的model scaling只改变网络的某一个部分的大小。如Figure 2中的b、c、d分别拓宽了网络的宽度、深度、分辨率。这三种方法在一定范围内都可以有效提高模型准确率。但是scale up到一定程度后,模型的准确率很难再继续增长了,如Figure 3。
Scaling up a model with one coefficient
三种方法分别存在的问题

  • 增加深度(depth): 梯度消失
  • 增加宽度(width): 在较浅的网络中难以抓取一些高阶特征
  • 增加分辨率(resolution): 准确率增长减缓

于是,论文提出了复合使用三种scaling的方法来进一步提升准确率。

Compound Scaling方法

depth、width、resolution分别增长如下
d e p t h ( d ) = α ϕ depth(d) = \alpha^{\phi} depth(d)=α

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值