经典CNN结构之EfficientNet

序言

拼卡,拼公司厚度,略有沮丧。
少卡小公司训练EfficientNet挺难搞的,所幸可以迁移学习之法利用,略感欣慰。
GoogleBrainTeam-2019之作。
话不多说,上图以证其惊艳:
paper-figure-1
而更让EfficientNet大放异彩的是,基于EfficientNet的目标检测算法EfficientDet也屠榜了。

网络结构

图解

Model Scaling

常用的三种提升网络表征能力的方法:deeper,wider,higher resolution。
paper-figure-2
其中,a为基线网络;b为增大感受野的方法扩展网络;c为增大网络深度的方法扩展网络;d为增大分辨率的方法扩展网络;e为paper所提出的复合参数扩展方法。

EfficientNet-B0

paper-table-1

EfficientNet-B0-B7 Performance Results on ImageNet

paper-table-2

EfficientNet Performance Results on Transfer Learning Datasets

paper-table-5

EfficientNet Model Parameters vs. Transfer Learning Accuracy

paper-figure-6

详解

1.paper主要讲述了如何利用系列系数Scaling Dimensions统一缩放模型的所有维度,进而实现模型精度最高效率最高的过程。系列系数包括w,d,r,其中,w表示卷积核大小,决定了感受野大小;d表示神经网络的深度;r表示分辨率大小。
2.组合缩放系数
问题提出:当计算资源增加时,如果彻底的去搜索宽度、深度、分辨率这三个变量的各种组合,那么搜索空间将无限大,搜索效率会非常低。
解决方法:用单一的组合缩放系数fai,同时缩放宽度、深度和图片分辨率,缩放公式如下图。而深度、宽度和分辨率的缩放基数 [公式] ,由在基准模型上取 [公式] 做参数搜索得到,作者在Efficient-B0上搜索的最终结果是 [公式] 。1.2/1.1/1.15
paper-equation-3
paper-step-1

创新思想

核心点

Compound Scaling】组合缩放
【利用NAS搜索出一个更好的Backbone】

感悟点

卡多就是任性;
钱多就是嚣张;

论文复现

参考论文

1.EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks

代码实现

Source code is at https://github.com/tensorflow/tpu/tree/master/models/official/efficientnet

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值