【NasNet】《Learning Transferable Architectures for Scalable Image Recognition》

在这里插入图片描述
CVPR-2018



1 Background and Motivation

Classification models often requires significant architecture engineering.

作者提出直接 learn the model architectures on the dataset of interest.

但是很吃资源

所以作者现在小数据集(CIFAR-10)上 search for an architecture block,然后 transfer 到大数据集(ImageNet)上

2 Advantages / Contributions

NASNet search space

搜 best cell 而不是 best architecture

  • faster
  • 更容易 generalize to other problems

3 Method

The design of our search space took much inspiration from LSTM, and Neural Architecture Search (NAS)Cell.

NAS 的结构如下
在这里插入图片描述
1)作者相比于 NAS 的改进如下
在这里插入图片描述

2)主要是 search two types of convolutional cells

  • Normal Cell
  • Reduction Cell(feature map 减半,channels double,结构同 Normal,只是输入到 cell 的第一个操作的 stride = 2)

感受下适用于 CIFAR-10 和 ImageNet 的整体结构
在这里插入图片描述
3)搜索过程原理图
在这里插入图片描述
可以看到,生成的新的 feature map,也会被加入到 hidden state set

4)controller RNN
在这里插入图片描述
在这里插入图片描述
step 1~5,由 5 个 softmax classifier 来裁决。

一个 cell 来 B 次 step 1~5,实验发现 B=5 效果最好

step 3,4 的候选操作如下
在这里插入图片描述
step 5 候选操作

  • element-wise addition
  • concatenation

4 Experiments

Proximal Policy Optimization(PPO)来 train controller RNN,500 NVidia P100s 4 days for CIFAR-10

NASNet-A
在这里插入图片描述

4.1 Datasets

  • CIFAR-10
  • ImageNet
  • COCO

4.2 CIFAR-10

在这里插入图片描述
cutout data augmentation,图 2 中 N = 7 的时候效果最好

4.3 ImageNet

没有 residual connection

在这里插入图片描述
更少的 parameters 和 computation,更高的 accuracy
在这里插入图片描述
看看在限制的计算量下的结果,精度比 mobileNet、shuffle 更好,说明参数利用率更高
在这里插入图片描述

4.4 COCO

NASNet + Faster RCNN pipeline
在这里插入图片描述
These results provide further evidence that NASNet provides superior, generic image features that may be transferred across other computer vision tasks.

在这里插入图片描述
能得到更精确的 localization

4.5 Efficiency of architecture search methods

在这里插入图片描述

reinforcement learning vs random search 也即
sample the decisions from the softmax classifiers vs sample the decisions from the uniform distribution

brute-force random search

感受下 NASNet-B 和 NASNet-C 的结构 for CIFAR-10 and ImageNet.(NASNet-A最好)
在这里插入图片描述在这里插入图片描述
在这里插入图片描述
在这里插入图片描述 在这里插入图片描述
在这里插入图片描述

5 Conclusion (own)

  • 表格中 N @ number,number 表示什么意思,一共有多少个 state 吗?
  • 附录中的 RL-based search strategy 感兴趣可以了解一波,虽然不是这篇文章的重点介绍内容,但是是核心方法!
  • 具体 coding 的时候,多个 h 怎么落地!

论文笔记-NASNet 对 number 做出了如下解释
在这里插入图片描述

NasNet 这篇对 RL 的细节进行了详细的介绍!

  • 3
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值