MobileNet V3详解

亮点:

更新了Block

使用NAS搜索参数

重新设计耗时层结构

1.新的block

 

a. 最显眼的部分就是加入了注意力机制(SE模块)

对得到的矩阵的每一个channel进行池化处理,channel有多少,得到的一维向量就有多少个元素

然后通过两个全连接层得到输出的向量

##第一个全连接层的节点个数等于特征矩阵channel的四分之一

##第一个全连接层的节点个数等于特征矩阵channel

输出的向量可以理解为对特征矩阵的每一个channel分析出了一个权重关系(重要的channel权重比较大)

将得到的权重与各自的channel相乘,便得到了结果

b.更新了激活函数

nl是非线性激活函数的意思,由于不同层中所使用的激活函数不一样,所以没有明确标出

降维的部分没有使用激活函数(也可以说使用了线性激活函数)

2.重新设计耗时层结构

 3.重新设计激活函数

 

 HS:h-swish激活函数

RE:relu结构

s:dw卷积的步距

bneck就是图中左侧结构 3*3是dw卷积核的大小

exp_size是通过第一个卷积层升到多少维

最后两层的NBN是不适用bn结构,和全连接层作用差不多

##第一个bneck没有使用第一个卷积层,因为没有升维

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值