EfficientNet 和 EfficientDet

参考知乎 令人拍案叫绝的EfficientNet和EfficientDet

EfficientNet

image-20210116111741363

(e)compound scaling 也就是 EfficientNet ,它是通过调节width,depth,resolution三个维度来缩放模型,具体缩放多少,是通过作者提出的***复合模型扩张方法结合神经结构搜索技术*** 获得的。

从直观上看,复合缩放方法是有意义的,因为如果输入的图像更大,那么网络就需要更多的层来增加接受域和更多的通道来在更大的图像上捕捉更细粒度的模式。

论文:EfficientNet: Rethinking Model Scaling for Convolutional Neural Networks

复合模型扩展

  1. 将整个卷积网络定义为N,则有$ Y_{i}=F_{i}( X_{i}) $ ,其中 Y i Y_{i} Yi 是输入张量, F i F_{i} Fi 是运算函数(卷积啥的), X i X_{i} Xi 为输入张量。张量的shape用$ < H_{i}, W_{i} ,C_{i} > $ 表示。整个卷积网络由 k 个卷积层组成,可以表示为: N = F k ⊙ … ⊙ F 2 ⊙ F 1 ( X 1 ) = ⊙ j = 1 … k F j ( X 1 ) \mathcal{N}=\mathcal{F}_{k} \odot \ldots \odot \mathcal{F}_{2} \odot \mathcal{F}_{1}\left(X_{1}\right)=\odot_{j=1 \ldots k} \mathcal{F}_{j}\left(X_{1}\right) N=FkF2F1(X1)=j=1kFj(X1)

  2. 在实践中,卷积神经网络层通常被划分为多个阶段,每个阶段的所有层都有相同的架构:例如,ResNet 有五个阶段,每个阶段的所有层除了第一层进行down-sampling外都有相同的卷积类型。因此,我们可以将卷积网络定义为 N = ⊙ i = 1 … s F i L i ( X ⟨ H i , W i , C i ⟩ ) \mathcal{N}=\odot_{i=1 \ldots s} \mathcal{F}_{i}^{L_{i}}\left(X_{\left\langle H_{i}, W_{i}, C_{i}\right\rangle}\right) N=i=1sFiLi(X

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值