AutoML端侧算法性能对比:NAS搜索出端侧大小的模型在Imagenet的表现

近年来AutoML突飞猛进,学术界和产业界产品繁多。AutoML包括但不限于自动数据增强,自动网络结构搜索,自动超参搜索和自动优化器。
 虽然NAS算法多种多样,但是从方法上可归为三大阵营:基于强化学习算法、基于进化算法和基于梯度的算法。由于NAS往往对算力要求比较高,动辄就是成百上千的GPU小时的训练,所以涌现了一些加速方案,例如权重共享,训练一个大的SuperNet,One-shot等等。
 近期笔者在阅读神经网络搜索(NAS)的部分论文,为方便对比各个NAS算法的性能,建立几个比较简单的表格,不定期更新。在方便记忆的同时,利于和大家讨论。因能力有限,可能有些地方会有偏差,如有谬误,请及时指正。
 这篇博文主要是统计NAS搜索出的,大小在端侧承受范围内(<10M)的模型在ImageNet数据集上的表现。

MethodParameters (M)Acc@1Acc@5Flops(M)
NASNet-A5.374.091.6564
AmoebaNet-A5.174.592.0555
AmoebaNet-C6.475.792.4570
MixNet-M5.077.093.3360
FC-NAS-C5.176.8--
SCARLET-A6.776.993.4365
MoGA-A5.175.992.8304
FairNAS-A4.675.392.4388
MNAS-A5.376.793.3403
ProxylessNAS7.175.192.5465
NAO11.3574.391.8584
PNAS5.174.291.9588
DARTS4.973.191.0595
P-DARTS7.475.695.1557
PC-DARTS5.375.892.7597
SNAS4.372.790.8522
Single-Path NAS-75.092.2-
Single Path One-shot-74.7-328
SemiNAS6.3276.593.2599
MiLeNAS5.375.392.4584
SGAS5.475.992.7598
DNA-a4.277.193.3348
DNA-d6.478.494.0611

其中红色部分为CVPR2020会议结果,目前来看,基于知识蒸馏的DNA算法性能最优。

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值