论文笔记:MobileNetV2: Inverted Residuals and Linear Bottlenecks

MobileNetV2通过Inverted Residuals和Linear Bottlenecks提升了模型性能。Linear Bottlenecks避免了ReLU在小维度输出后的信息损失,而Inverted Residuals则通过先升维再降维的方式有效复用特征并缓解特征退化。这一设计减少了计算量,提高了效率。
摘要由CSDN通过智能技术生成

MobileNetV2: Inverted Residuals and Linear Bottlenecks

MobileNet V2是MobileNet V1的改进版,Inverted residual 是个非常精妙的设计!
MobileNet V1引入depthwise separable convolution代替standard convolution,减少运算量。
MobileNet V1 的结构其实非常简单,是类似于VGG一样非常复古的直筒结构。后续一系列的ResNet, DenseNet等结构已经证明通过复用图像特征, 使用concat/eltwise+ 等操作进行融合, 能极大提升网络的性价比。【1】

v2 主要的改进有两点:

  • Linear Bottlenecks:去掉了小维度输出层后面的非线性激活层,目的是为了保证模型的表达能力。 好处:通过去掉Eltwise+ 的特征去掉ReLU, 减少ReLU对特征的破坏;
  • Inverted Residual block:和residual block中维度先缩减再扩增正好相反,因此shotcut也就变成了连接的是维度缩减后的feature map。好处:1. 复用特征, 2. 旁支block内先通过1x1升维, 再接depthw
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值