CV 经典主干网络 (Backbone) 系列: EfficientNet
作者:Mingxing Tan 等
发表时间:2019
Paper 原文: EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks
该篇是 CV 经典主干网络 (Backbone) 系列 下的一篇文章。
练丹师在练丹的时候,对于卷积神经网络,通常通过调整网络深度(depth)、网络宽度(width) 和 输入图像分辨率 (resolution) 大小来找到一个效果比较的网络,但是这却是一个体力活,作者希望找到一个通用的缩放方法,可以使得网络又准又快。
1. 网络结构
1.1 理论
作者通过一些实验得出如下结论:
-
三个维度中任一维度的放大都可以带来精度的提升,但随着倍率越来越大,提升却越来越小。
-
得到更高的精度以及效率的关键是平衡网络宽度,网络深度,图像分辨率三个维度的放缩倍率(d, r, w)
基于以上的结论,作者提出了一种混合维度放大法(compound scaling method)
其中 α , β , γ \alpha, \beta, \gamma α,β,γ,可通过网格搜索获得。混合系数 ϕ \phi