[ADAS预研笔记]感知算法 - 网络搜索设计

NASNet(network architecture search)

NASNet架构特点是由两个AutoML设计的Layer组成——Normal Layer、Reduction Layer,

这样的效果是不再需要相关专家用human knowledge来确定超参数(Hyperparameter),直接用RNN把超参计算出来,这样就实现了AI自动学习。

  • 超参数(Hyperparameter)/调优参数(tuning parameters):模型在训练之前就需要确定下来的参数,如学习速率、迭代次数等,“调参”即是指调“超参数”;
  • 相对应的概念为模型参数,即模型本身的参数,如权值和偏置等,在模型训练过程中会根据loss自动调整。

在NASNet中,基本的网络结构还是需要手动设计的,NASNet学习的是完整网络中被堆叠、被重复使用的网络单元。 

EfficientNet

经验表明,对于卷积神经网络的提升,着重点在于网络深度,网络宽度,分辨率这三个维度;

EfficientNet平衡深度、宽度和分辨率这三个维度,通过一组固定的缩放系数统一缩放这三个维度

例如,如果我们需要使用2^N的计算机资源,我们可以对网络深度放大α^N,对网络宽度放大β^N,对分辨率放大γ^N。

其中,baseline基准网络是通过网络结构搜索得到,基于baseline基准网络进行放大得到的一系列网络就是EfficientNet网络。

RegNet

RegNet核心思想在于如何去设计一个有效的空间,并发现一些网络的通用设计准则,然后根据相应数据集,自动找到最优的参数。

分为RegNetX和RegNetY,两者的区别仅在于RegNetY在block中的Group Conv后接了个SE模块。

各RegNet的性能对比:

与其他模型的对比如下:

 

vs ResNet: 

 

vs EfficientNet: 

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值