MobileNetV3网络结构

简介

Mobilenet是由Google公司创造的网络系列,目前已经发布至V3版本,每一次版本更新都是在前一次网络上的优化修改Mobilenet主打的是轻量级网络,也就说网络参数量较少,执行速度较快,也更容易部署到终端设备上。在移动端和嵌入式设备上也有了很多的应用。

MobilenetV3MobilenetV2进行了一系列小的修改,实现了精度的再次突破,速度也有所提升。

主要结构

深度可分离卷积

在这里插入图片描述

MobilenetV3的主体部分大量使用了深度可分离卷积,这种卷积结构极大地减少了参数量,对于轻量级的网络是非常有利的。

SE注意力机制

在这里插入图片描述

MobilenetV3的基础结构中,使用了SE注意力机制,虽然SE注意力机制会增加少量的参数,但对于精度有提升,所以MobilenetV3中对某些层加入了SE注意力机制,来追求精度和参数量的平衡。并且对初始的注意力机制也做了一定的修改,主要体现在卷积层激活函数

新型激活函数

MobilenetV3中使用Hardswish激活函数来代替Swish激活。

在这里插入图片描述

从上面的公式来看,Hardswish使用了幂函数来代替Swish中的指数函数部分,从而降低了计算的成本,使模型更加轻量化。

在这里插入图片描述

上图是HardswishSwish函数图像梯度图像。可以看出两函数图像非常接近,但在梯度图上Hardswish存在突变,这对于训练是不利的,而swish梯度变化平滑。也就是说Hardswish加快了运算速度,但是不利于提高精度MobilenetV3经过多次实验,发现Hardswish更深的网络中精度损失较小,因为此时变量的范围大都聚集在两突变之间,所以在网络的前半部分使用Relu激活,在深层网络中则使用Hardswish激活。

修改了尾部结构

MobilenetV3修改了MobilenetV2的尾部结构,具体修改如下:

在这里插入图片描述

MobilenetV2最后的尾部使用了四层卷积层再接了一个平均池化MobilenetV3仅通过一个卷积层修改通道数后,直接接了平均池化层。这也大大减少了网络的参数量,在实验中发现,精度并没有降低

整体网络

经过以上的一些小的修改后,MobilenetV3整体网络形式就非常清晰了,它的通用结构单元如下:

在这里插入图片描述

整体网络就是由多个这样的单元堆叠而成。MobilenetV3largesmall两个版本,我们以large为例分析。

在这里插入图片描述

表中input表示输出的shapeexp size表示扩大的通道数out表示输出通道数SE表示是否使用SE注意力机制NL表示使用的激活函数S表示卷积的步长

bneck就是第一个图所示的格式,可以看到中间重复使用了多次。先使用一个卷积层,把通道数扩充到16,之后通过多个bneck充分提取特征,然后接着使用一个尾部结构,最后输出一个类别数的矩阵。因为目前写论文通常使用的是imagenet数据集,是一个1000类别的庞大分类数据集,所以官方网络一般最后输出的维度都是1000

参考资料

https://arxiv.org/abs/1905.02244

https://github.com/PaddlePaddle/PaddleClas

https://blog.csdn.net/qq_42617455/article/details/108165206

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
MobileNetV3是谷歌提出的一种轻量级卷积神经网络,主要用于移动端和嵌入式设备上的图像分类和目标检测任务。它是MobileNet系列的第三代,相比于MobileNetV2,MobileNetV3在准确率和计算效率上都有了更好的表现。 MobileNetV3共有三个版本:Small、Large和EdgeTPU。其中Small版本主要用于移动设备上的轻量级图像分类任务,Large版本则适用于高精度的图像分类和目标检测任务,EdgeTPU版本则是专门为Google的Edge TPU加速器设计的。 下面以MobileNetV3-Small为例介绍其网络结构MobileNetV3-Small网络结构主要包括三个部分:基础网络、中间层和顶层分类器。其中基础网络采用了轻量级卷积模块(Lightweight Convolutional Module,简称LCM)和倒置残差模块(Inverted Residual Block)的组合,可以有效降低模型的参数量和计算量。中间层采用了线性瓶颈(Linear Bottleneck)和注意力机制(Attention Mechanism)来进一步提升特征表示能力。顶层分类器则采用了自适应平均池化(Adaptive Average Pooling)和SE模块(Squeeze-and-Excitation Module)来增强分类器的泛化能力。 MobileNetV3-Small的网络结构如下图所示: ![image.png](https://cdn.nlark.com/yuque/0/2021/png/12759958/1622613475426-0d8c1d0b-7a12-4d1a-8e0c-2b7d3c3b2f8a.png) 其中,每个L表示一个轻量级卷积模块(LCM),每个MB表示一个倒置残差模块(Inverted Residual Block),每个IBN表示一个线性瓶颈(Linear Bottleneck),每个SE表示一个SE模块(Squeeze-and-Excitation Module)。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值