MobileNetV2: Inverted Residuals and Linear Bottlenecks

文章:https://arxiv.org/abs/1801.04381
代码:https://github.com/tensorflow/models/tree/master/research/slim/nets/mobilenet

1 摘要

本文的核心思想是提出了一个新的模块结构:Inverted residual with linear bottleneck,不像普通的bottleneck结构是对输入先压缩再扩张回去,Inverted residual with linear bottleneck是对输入先扩张再压缩,并且移除了最后的Relu6激活函数,使用线性激活。

2 核心思想

自己原来的理解狗屁不通,这里借鉴一下别人的理解,下面内容全部摘抄自:https://zhuanlan.zhihu.com/p/70703846

在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述上面的例子说明了,将输入数据映射到低维空间,Relu后的结果进行反向映射丢失了很多信息。深度可分离卷积得到的特征对应于低维空间(不知道为什么?),特征较少,如果使用Relu激活函数,则会破坏特征,造成特征的损耗,从而使得模型的效果较差,因此去掉了最后一层的Relu激活。
在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述在这里插入图片描述再次声明:本文摘抄自:https://zhuanlan.zhihu.com/p/70703846

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值