CVPR 2021 | 模型缩放新范式!FAIR的Ross等人提出FastScaling

关注“CVer”公众号

AI/CV重磅干货,第一时间送达

本文转载自 :AIWalker
标题&作者团队
论文: https://arxiv.org/abs/2103.06877

本文是FAIR的Piotr Dollar与Ross Girshick等人(PS:Kaiming呢?)在模型缩放方面的一次系统性探索。首先,对现有的模型缩放(单一维度缩放、复合维度缩放等)进行了分析,不仅分析了不同维度缩放与FLOPs、Parameters以及Activations之间的关系,同时分析了它们与实际推理速度之间的关系。然后,在前述分析的基础上了提出了本文的快速缩放策略并在EfficientNet、RegNetY、RegNetZ等模型上进行了验证。相比EfficientNet中的复合缩放,本文所提缩放策略取得了更快的推理速度。

Abstract

在这篇文章中,我们对CNN模型缩放策略进行了分析,即如何对基线模型进行缩放以赋予其更大的计算复杂度进而具有更强的表达能力。现有的缩放策略主要包含提升模型宽度、深度以及分辨率,然而现有的不同缩放策略中的均衡考量尚未得以充分理解。现有的分析主要聚焦于精度-FLOPs的相互影响,然而,正如我们要证实的:不同的缩放策略会影响模型的参数量、activation,进而导致截然不同的实际推理速度

我们在实验中返现一个令人经验的结论:不同的缩放策略会导致具有相似精度的网络,但具有变化很大的属性。这就促使我们提出了一种简单Fast Compound Scaling策略:主要对模型宽度进行缩放,而深度与分辨率的缩放次之。当前主流的模型缩放策略会导致 的模型activation提升,而我们所提出的FCS策略则仅带来 的模型activation提升,同时取得更好的模型精度。更少的activation往往会当前内存带宽受限设备(如GPUs)上带来更好的加速。更确切的讲,我们希望该工作能一种框架用于不同计算约束下的模型缩放策略分析。

image-20210312103036770

以上图为例,我们可以看到,接下来的内容也将针对这些发现进行分析并提出一种新的缩放策略。

  • 有不同的缩放策略可以得到具有相似精度的模型,同时具有相同的FLOPs。

  • 有不同的缩放策略可以导致高精度模型,见上图top;

  • 朝着固定FLOPs调整的不同模型缩放策略可以导致截然不同的推理时间,见上图右下;

  • 不同的缩放策略会导致不同的activations增长比例,见上图左下;

Complexity of Scaled Models

接下来,我们将提出一种广义框架用于分析不同网络缩放策略的复杂度,一种简单而直观,且对于理解和扩展模型缩放极为有效。

Complexity Metrics

模型的有三个非常相关的属性:flops(计算量)、parameters(参数量)以及activations(卷积张量元素数)。计算量与参数量是两种常见的度量准则,然而参数量是独立于模型输入分辨率的,故而难以真正反映模型的推理速度。由于我们需要研究不同输入分辨率的模型,所以我们会进行参数量的统计,但主要聚焦于计算量与卷积张量元素数

卷积张量元素数鲜少收到关注,但对于模型的推理速度起着关键作用,因此,我们将对缩放与其之间的相互影响进行仔细分析。

Network Complexity

尽管CNN模型由不同形式的结构组成,但我们主要对卷积层进行分析。这主要是因为:

  • 规范化层、池化层同尝只占模型非常小的比例;

  • 这些层的数量与复杂度与卷积层的数量成正比;

卷积为例,假设通道数为w,输入分辨率为r。那么它的相应复杂度可以描述为:

由于k不具备缩放性,不失一般性,我们固定k=1。一般网络是由stages构成,每个stage包含d个均匀的卷基层,且具有相同的w和r,因此d-stage的复杂度可以描述为:

接下来,我们将针对单一阶段进行不同缩放策略的影响性分析。

Complexity of Simple Scaling

我们定义Simple Scaling为单一维度的缩放,即仅对宽度w、深度d或者分辨率r进行缩放。此外,我们还定义缩放因子为s用于提升模型的FLOPs。下表给出了不同维度缩放时导致的FLOPs方面的差异对比。

image-20210312112114853

从上表我们可以看到:当FLOPs缩放s时,调整w则会仅仅导致 的计算量提升。这个发现对于如我们如何设计新的缩放策略非常关键。

Complexity of Compound Scaling

与简单缩放对立的则是复合缩放,即同时在多个维度进行缩放调整。复合缩放是EfficientNet一文提出,相比简单缩放,复合缩放取得了更高的精度。

image-20210312121856771

上表给出了不同复合缩放配置导致的计算量、参数量以及acts的提升。如果我们对三个维度进行均匀缩放,那么不同维度对应的缩放比例则分别是 ,此时flops在每个维度提升分别为 ,进而导致s倍率的计算量提升。有意思的是,复合缩放中的参数[1.2,1.1,1.15]恰好与这里s=2时的均匀缩放 非常接近

Complexity of Group Width Scaling

目前许多优秀模型重度依赖组卷积与深度卷积。此时我们额外定义组卷积的组数为g,其复杂度可以描述为:

image-20210312131528493

上午给出了组卷积缩放的三个基本策略对比。未得到与常规卷积类似的缩放行为,通道宽与组宽都需要缩放。因此,如无其他说明,我们对g的缩放正比于w。此外需要注意:当对g进行缩放时需要确保w可以被g整除。

Runtime of Scaled Models

本文的目标在于:设计一种缩放策略生成更快、更高精度的模型。在前面的内容中,我们对参数量、计算量以及activation的不同缩放策略进行了分析。接下来,我们将对这些度量参数与推理速度之间的相关性分析。

image-20210312132121858

上图给出了大量模型(EfficientNet-B0,RegNetZ, RegNetY)在不同缩放策略下的推理速度、计算量、参数量、activation之间的关系图。从中我们可以看到:

  • FLOPs与参数量只能预测模型的推理速度;

  • activations则可以预测模型推理速度。

上述观察引导我们采用Activation作为模型推理耗时的代理,具体来讲,对于缩放版模型,其推理速度与activation的Pearson相关性 ,而其他两个度量则较低(0.86和0.56)。

## Fast Compound Model Scaling

由于模型的推理速度与activation具有强相关性,因此我们旨在设计一种缩放策略以最小化activation提升。

正如前面Table1-Table3所示,通过提升通道宽度与组宽度可以带来最小的activation提升。事实上,知名的Wide-ResNet在推理速度方面就极为高效。然而,更快的网络queries并不能总是得到比更深、高分辨率网路更高的性能。

为解决上述问题,我们引入了Fast Compound Model Scaling策略,思路极为简单:主要对模型宽度进行提升,同时对深度和分辨率进行小幅提升。我们引入缩放策略参数 ,定义:

当我们对网络以s进行缩放时,我们定义:

如果涉及到组卷积,我们设置 ,所得模型的复杂度则可以表示为:

image-20210312134227262

上表给出了不同 下的缩放策略对比,可以看到:

  • 时,只需要对宽度进行调整,导致最低的activations;

  • 是,对需要对深度与分辨率进行调整,导致最高的aitivations;

  • 时,对应均匀复合缩放,即EfficientNet一文的复合缩放。

我们探索的最有意思的缩放位于 ,也就是说:我们所指的快速缩放对应了 接近1。如无特殊说明,我们默认 ,表示为

Experiments

在这里,我们以EfficientNet、RegNetY、RegNetZ为基线模型对本文所提的缩放策略进行实验对比。关于RegNetY与RegNetZ的模块结构示意图可参考下图(区别在于RegNetY中b=1,RegNetZ中的b=1/4)。更详细的结构可参考原文。

image-20210312135228281

训练信息:SGD(momentum=0.9),标签平滑,mixup、AutoAugment、SWA、混合精度。GradualWarmup。BatchSize=1024,学习率

image-20210312140606671

上表给出了EfficientNet作为基线模型时模型精度与我们复现的精度对比。在后面的对比中,我们采用2x(即200epoch)训练模型进行对比。同时,下表给出了RegNetY与RegNetZ的复现精度对比。

image-20210312140802071

Simple & Compound Scaling

image-20210312141024703

上图给出了EfficientNet在不同缩放策略下的精度-推理速度对比。正如所预期的,dwr缩放策略取得最佳精度,但速度比w缩放更慢。同时可以看到:dwr与原始的复合缩放在精度-推理方面基本相当,而dwr无需针对每个独立的缩放因子进行优化调整。

image-20210312141436420

上图给出了RegNetY-500MF与RegNetZ-500MF基线模型上的对比,我们可以看到相似的结论:dwr可以取得最强的精度。

Fast Scaling

接下来,我们对本文所提的策略有效性进行分析。正如前文所提到:当 接近1时,模型的activation提升最小,进而可以得到最快的模型。我们采用 作为默认参数。

image-20210312141606181

上图给出了EfficientNet在不同缩放策略(即不同 )下的精度-速度方面的对比。可以看到:

  • 对于所有不同的 ,模型的精度基本相当,但比 的稍高;

  • dWr缩放的速度与w缩放接近,但比dwr稍快。

image-20210312142136436

上图给出了RegNet在不同缩放策略下的性能对比。可以看到:dWr取得了最佳的精度-速度;此外,我们还可以看到:RegNet的w缩放要比EfficientNet更有效(这与g的协同缩放有关)。

Scaling versus Search

与此同时,我们不禁要问:缩放所得到的模型随机搜索得到模型孰优孰劣呢

image-20210312142407906

上表给出了三个配置下的缩放模型与搜索模型的对比,可以看到:

  • 在4x训练下,RegNetY-4GF的搜索模型能以0.6%精度优于缩放模型;

  • 在4x训练下,RegNetZ-4GF的搜索模型精度仅比缩放模型高0.1%;

  • 高精度模型的缩放并不总是意味着可以得到一个最优模型,但是对于不便于优化的模型直接缩放仍是一种很有用的策略;

  • 相比缩放模型,搜索模型具有更少的参数量。

Comparison of Large Models

image-20210312143333965

上图给出了将不同模型缩放到16GF时的精度-推理速度的对比。可以看到:

  • 模型排序与flop基本一致,RegNetZ取得了最佳精度;

  • 所有通过dWr得到的模型均比原始EfficientNet更快;

  • RegNetY与RegNetZ的最高与最低精度误差从500MF时的2.2%收缩到了16GF时的0.8%;

  • 混合缩放策略可以可以进一步减少这种gap;

  • RegNetY是最快的模型。

image-20210312143811526

上表还给出了4GF、16GF以及其他baseline的对比。尽管RegNetY具有更高的Flops,但RegNetY-4GF缩放得到的16GF模型哟啊比EfficientNet-B4更快。这说明了flops之外其他准则的重要性。

CV资源下载

后台回复:CVPR2021,即可下载代码开源的论文合集

后台回复:Transformer综述,即可下载两个最新的视觉Transformer综述PDF,肝起来!

重磅!CVer-论文写作与投稿交流群成立

扫码添加CVer助手,可申请加入CVer-论文写作与投稿 微信交流群,目前已满2400+人,旨在交流顶会(CVPR/ICCV/ECCV/NIPS/ICML/ICLR/AAAI等)、顶刊(IJCV/TPAMI/TIP等)、SCI、EI、中文核心等写作与投稿事宜。

同时也可申请加入CVer大群和细分方向技术群,细分方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch和TensorFlow等群。

一定要备注:研究方向+地点+学校/公司+昵称(如论文写作+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

▲长按加小助手微信,进交流群

▲点击上方卡片,关注CVer公众号

整理不易,请给CVer点赞和在看

    • 0
      点赞
    • 6
      收藏
      觉得还不错? 一键收藏
    • 0
      评论

    “相关推荐”对你有帮助么?

    • 非常没帮助
    • 没帮助
    • 一般
    • 有帮助
    • 非常有帮助
    提交
    评论
    添加红包

    请填写红包祝福语或标题

    红包个数最小为10个

    红包金额最低5元

    当前余额3.43前往充值 >
    需支付:10.00
    成就一亿技术人!
    领取后你会自动成为博主和红包主的粉丝 规则
    hope_wisdom
    发出的红包
    实付
    使用余额支付
    点击重新获取
    扫码支付
    钱包余额 0

    抵扣说明:

    1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
    2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

    余额充值