ProxyLessNAS

paper: ProxylessNAS: Direct Neural Architecture Search on Target Task and Hardware
code: https://github.com/MIT-HAN-LAB/ProxylessNAS

1 动机

传统的NAS算法非常耗费GPU 计算资源, 因此通常无法直接在大型的目标任务上直接进行搜索, 一般都是在小型的代理任务上进行搜索, 搜索的结果直接迁移到目标任务上。但这种迁移无法保证在目标任务上是最优的。
在这里插入图片描述

代理任务一般包括:

  • 1)在更小的数据集上训练
  • 2)只训练个别block
  • 3)只训练少量epoch

2 方法

核心是: 训练时路径二值化

其实这篇文章的做法比较类似于One-shot 和Darts的方法, 只不过这2中方法在得到输出的时候需要用到所有的通路, 导致内存使用量相比单个模型极大增加 , 因此一般也只能在小的代理任务上训练。 而proxyless NAS 最主要的赶紧是训练时路径的二值化, 每次只激活其中一条路径, 解决了内存的问题, 因此可以直接在大型的任务上直接进行搜索训练。
在这里插入图片描述

3 结果

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

在这里插入图片描述

4 总结

通过proxyless NAS的方法, 可以直接在目标任务上进行搜索, 不仅提高了效率, 而且最终能得到更优的结果。

一些有意思的发现:
网络设计的一些insights:

  • GPU prefers shallow and wide model with early pooling;
  • CPU prefers deep and narrow model with late pooling
  • Pooling layers prefer large and wide kernel
  • Early layers prefer small kernel
  • Late layers prefer large kernel
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值