MobileNetV3网络学习笔记

模型优点

1.更新Block(bneck)
2.使用NAS搜索参数(Neural Architecture Search)
3.重新设计耗时层结构

新的改变

相比于V2 提升了3.2%,更准确,更高效

注意力机制

在这里插入图片描述
假设特征矩阵的Cannel=2,进行平均池化操作(针对每一个cannel求均值),得到一个有两个元素的特征向量,经过两个全连接层得到输出,针对FC1:节点个数是输入特征矩阵cannel的1/4,跟的是RELU激活函数,针对FC2:节点个数和输入特征矩阵一致,跟的是H-sig激活函数,之后得到两个元素的特征向量,每一个元素对应输入特征矩阵每一个cannel所对应的权重,元素的值与原特征矩阵每一个元素相乘(用0.5*(0.2,0.1,0.4,0.3)),第二个元素类似

更新Block

加入了SE模块(注意力机制)
更新了激活函数

V2的倒残差结构
首先是1X1的卷积层进行升维处理,后跟BN和RELU6激活函数,紧接着是3X3的DW卷积(卷积核个数=输入的深度=输出的深度),后跟BN和RELU6激活函数,再进行1X1的卷积层进行降维,后面只跟了RELU6激活函数,没有BN
捷径分支条件:stride=1且input_c=output_c
V3的Block
更新了激活函数:NL(非线性激活函数,笼统概述),每层激活函数不同

首先是1X1的卷积层进行升维处理,后跟BN和非线性激活函数,紧接着是3X3的DW卷积(卷积核个数=输入的深度=输出的深度),后跟BN和非线性激活函数,再经过SE模块(注意力机制模块),再经过1X1的卷积进行降维处理,没有跟激活函数和BN

重新设计耗时层结构

1.减少第一个卷积层的卷积核个数(32->16),实验表明计算时间相同,但是参数数量变少了
2.精简Last Stage
在这里插入图片描述

重新设计激活函数

在这里插入图片描述
缺点:计算、求导复杂,对量化过程不友好(量化就是将模型部署到硬件设备上)
针对问题提出了以下激活函数
H-sigmoid
H-swish

V3-Large网络结构

在这里插入图片描述
第一个倒残差结构的卷积核大小变为16,优化
NBN:不使用BN结构
后两个卷积=全连接层

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值