MobileNetV2 阅读笔记

论文题目MobileNetV2: Inverted Residuals and Linear Bottlenecks
作者Mark Sandler; Andrew Howard; Menglong Zhu; Andrey Zhmoginov; Liang-Chieh Chen
论文链接MobileNetV2: Inverted Residuals and Linear Bottlenecks | IEEE Conference Publication | IEEE Xplore

1、Depthwise Separable Convolutions

深度可分离卷积(deothwise separable convolutions)是许多高效神经网络的重要组成部件。一个标准的卷积,输入的张量维度是h_{i}\times w_{i}\times d_{i},对其使用一个卷积操作,卷积核K\in R^{k \times k \times d_{i} \times d_{j}},输出的特征图维度为h_{i}\times w_{i}\times d_{j}。一个标准的卷积的计算成本为h_{i}\times w_{i}\times d_{i}\times d_{j}\times k\times k。而一个深度可分离卷积的计算成本为h_{i}\times w_{i} \times d_{i}\times (k^{2}+ d_{j})。相较于传统卷积,计算成本可以减少k^{2}

2、 Linear Bottlenecks

文章3.2节读了并不是很懂,看代码应该就是在深度可分离卷积中,降维用的1x1卷积不使用非线性激活,如果有理解的大神可以评论区交流一下。

文章强调了两个属性,它们表明需要关注的流形(the manifold of interest,翻译软件直接翻译)应位于高维激活空间的低维子空间中:

  • 如果感兴趣的流形在ReLU变换后仍保持非零量,则它对应于线性变换。
  • ReLU能够保存关于输入流形的完整信息,但仅当输入流形位于输入空间的低维子空间时。

3、 Inverted residuals

倒残差结构类似于残差结构,不同于传统残差结构两头大中间小,倒残差结构先升维再降维,两头小中间大。作者想提高梯度传播的能力,在实验中表现优于传统残差结构,同时内存效率更高。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值