mobilenetV1-V3架构总结

mobilenetV1-V3架构总结

  • mobilenet-V1 paper地址:https://arxiv.org/pdf/1704.04861.pdf
  • mobilenet-V2 paper地址: https://arxiv.org/pdf/1801.04381.pdf
  • mobilenet-V3 paper地址:https://openaccess.thecvf.com/content_ICCV_2019/papers/Howard_Searching_for_MobileNetV3_ICCV_2019_paper.pdf


1. mobilenet-V1

1.1 基本block

深度可分离卷积
参考:https://blog.csdn.net/m0_37799466/article/details/106054111
在这里插入图片描述

1.2 网络架构

在这里插入图片描述

第一层是全卷积full convolution(也就是标准卷积)
除了最后的完全连接层(没有非线性,并馈入softmax层进行分类)外,所有层均遵循Batchnorm和ReLU非线性 ,也就是下面的右图(下右图就是上图中红色框框出来的部分
(左图是标准的卷积,右图是深度可分离卷积)。
在这里插入图片描述
若将深度卷积和点卷积分开为3层看,则mobile-V1共28层。

2. mobilenet-V2

2.1 基础block

mobile-V2的基本构建block是一个带有残差的bottleneck depth-separabel convolution
在这里插入图片描述

2.2 网络架构

在这里插入图片描述Sequential: (Conv2d, BatchNorm2d, ReLU6)
第1层:输入图像通道数3, 输出通道数32,kernel_size=3,s是2

InvertedResidualblock
(1): InvertedResidual (conv2d, BatchNorm2d, ReLU6, Conv2d, BatchNorm2d)
第2-4层:输入通道数32,输出通道数16,kernel_size分别是3和1,t是1,s是1

(2)InvertedResidual (conv2d, BatchNorm2d, ReLU6, Conv2d, BatchNorm2d, ReLU6, Conv2d, BatchNorm2d)
第5-7层:输入通道数16,输出通道数24,kernel_size分别是1,3,1,t是6,s是2

(3)InvertedResidual (conv2d, BatchNorm2d, ReLU6, Conv2d, BatchNorm2d, ReLU6, Conv2d, BatchNorm2d)
第8-10层:输入通道数24,输出通道数24,kernel_size分别是1,3,1,t是6,s是2

(4)InvertedResidual (conv2d, BatchNorm2d, ReLU6, Conv2d, BatchNorm2d, ReLU6, Conv2d, BatchNorm2d)
第11-13层:输入通道数24,输出通道数32,kernel_size分别是1,3,1,t是6,s是2

(5): InvertedResidual (conv2d, BatchNorm2d, ReLU6, Conv2d, BatchNorm2d, ReLU6, Conv2d, BatchNorm2d)
第14-16层:输入通道数32,输出通道数32,kernel_size分别是1,3,1,t是6,s是2

(6): InvertedResidual (conv2d, BatchNorm2d, ReLU6, Conv2d, BatchNorm2d, ReLU6, Conv2d, BatchNorm2d)
第17-19层:输入通道数32,输出通道数32,kernel_size分别是1,3,1,t是6,s是2

(7): InvertedResidual (conv2d, BatchNorm2d, ReLU6, Conv2d, BatchNorm2d, ReLU6, Conv2d, BatchNorm2d)
第20-22层:输入通道数32,输出通道数64,kernel_size分别是1,3,1,t是6,s是2

(8): InvertedResidual (conv2d, BatchNorm2d, ReLU6, Conv2d, BatchNorm2d, ReLU6, Conv2d, BatchNorm2d)
第23-25层:输入通道数64,输出通道数64,kernel_size分别是1,3,1,t是6,s是2

(9): InvertedResidual (conv2d, BatchNorm2d, ReLU6, Conv2d, BatchNorm2d, ReLU6, Conv2d, BatchNorm2d)
第26-28层:输入通道数64,输出通道数64,kernel_size分别是1,3,1,t是6,s是2

(10): InvertedResidual (conv2d, BatchNorm2d, ReLU6, Conv2d, BatchNorm2d, ReLU6, Conv2d, BatchNorm2d)
第29-31层:输入通道数64,输出通道数64,kernel_size分别是1,3,1,t是6,s是2

(11): InvertedResidual (conv2d, BatchNorm2d, ReLU6, Conv2d, BatchNorm2d, ReLU6, Conv2d, BatchNorm2d)
第32-34层:输入通道数64,输出通道数96,kernel_size分别是1,3,1,t是6,s是1

(12): InvertedResidual (conv2d, BatchNorm2d, ReLU6, Conv2d, BatchNorm2d, ReLU6, Conv2d, BatchNorm2d)
第35-37层:输入通道数96,输出通道数96,kernel_size分别是1,3,1,t是6,s是1

(13): InvertedResidual (conv2d, BatchNorm2d, ReLU6, Conv2d, BatchNorm2d, ReLU6, Conv2d, BatchNorm2d)
第38-40层:输入通道数96,输出通道数96,kernel_size分别是1,3,1,t是6,s是1

(14): InvertedResidual (conv2d, BatchNorm2d, ReLU6, Conv2d, BatchNorm2d, ReLU6, Conv2d, BatchNorm2d)
第41-43层:输入通道数96,输出通道数96,kernel_size分别是1,3,1,t是6,s是2

(15): InvertedResidual (conv2d, BatchNorm2d, ReLU6, Conv2d, BatchNorm2d, ReLU6, Conv2d, BatchNorm2d)
第44-46层:输入通道数160,输出通道数160,kernel_size分别是1,3,1,t是6,s是2

(16): InvertedResidual (conv2d, BatchNorm2d, ReLU6, Conv2d, BatchNorm2d, ReLU6, Conv2d, BatchNorm2d)
第47-49层:输入通道数160,输出通道数160,kernel_size分别是1,3,1,t是6,s是2

(17): InvertedResidual (conv2d, BatchNorm2d, ReLU6, Conv2d, BatchNorm2d, ReLU6, Conv2d, BatchNorm2d)
第50-52层:输入通道数160,输出通道数320,kernel_size分别是1,3,1,t是6,s是1

(18): Sequential (conv2d, BatchNorm2d, ReLU6)
第53层:输入通道数160,输出通道数1280,kernel_size是1,s是1

Classifier: Linear
第54层:输入通道数1280,输出通道数100,kernel_size分别是1

3. mobilenet-V3

3.1 基础block

在这里插入图片描述

3.2 网络架构

mobilenet-V3-large

在这里插入图片描述

mobilenet-V3-small

在这里插入图片描述
写得不太详细,以后再慢慢补充吧~

  • 3
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值