MobileNet详解

背景:
传统卷积神经网络,内存需求大,运算量大,导致无法在移动设备以及嵌入式设备上运行。
在这里插入图片描述
亮点:

  • Depthwise Convolution(DW卷积)(大大减少运算量和参数数量)
  • 增加超参数(a,b)人为设定。
    在这里插入图片描述
    PW卷积:卷积核为1*1
    在这里插入图片描述
    DW+PW卷积 和 普通卷积对比:
    在这里插入图片描述

MobileNet v1

参数:
Conv/s2 :普通卷积,步距为2
33332:高 宽 * 输入矩阵深度 *卷积核个数
Conv dw:dw卷积
(有点像VGG,简单将网络串行链接)
在这里插入图片描述
a:卷积核个数倍率 (multiplier 乘数)
b:分辨率参数 resolution(分辨率)
问题:dw卷积核参数大部分为0.
在这里插入图片描述

MobileNet v2

在这里插入图片描述
网络亮点:

  • Inverted Residuals(倒残差结构)
  • Linear Bottlenecks

残差和倒残差的区别:
在这里插入图片描述
倒残差中relu6:
在这里插入图片描述
relu:对低维度特征信息造成大量损失,
(因为倒残差结构输出的时候维度比较低,所以需要线性激活函数替代非线性激活函数,来避免信息损失)
在这里插入图片描述
下图:

  1. t应该为11卷积核的个数,所以11卷积核可以升降维,但h和w不变
  2. 看第二行,stride为s,则输出的h和w变为原来的s分之一。

在这里插入图片描述
网络结构
在这里插入图片描述
网络表现:
在这里插入图片描述
train.py
这里把最后一层改成5分类
把前边参数冻结
在这里插入图片描述

作者说 dw卷积在cpu上训练很慢
在这里插入图片描述

MobileNet v3

  • 更新Block(bneck)
  • 使用NAS搜索参数
  • 重新设计耗时层结构

在这里插入图片描述
NL:非线性激活
se模块:
在这里插入图片描述

在这里插入图片描述
将传入的channel调整到离他最近的8的整数倍,这样对计算友好。
在这里插入图片描述

学到了什么:

  1. 如何在github看官方实现的代码
  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值