分组卷积与DW卷积、Residuals与Inverted Residuals、bottleneck与linearbottleneck

分组卷积(Group Convolution)

分组卷积在ResNext、ShuffleNet中都用到了

首先必须明确:
常规卷积(Convolution)的参数量是:

K*K*C_in*n
K是卷积核大小,C_in是input的channel数,n是卷积核个数(output的channel数)

分组卷积的参数量是:

K*K*C_in*n*1/g
K是卷积核大小,C_in是input的channel数,n是卷积核个数(output的channel数),g是分组数

在这里插入图片描述

DW(Depthwise Separable Conv)+PW(Pointwise Conv) 卷积

DW卷积也叫做深度可分离卷积,DW+PW的组合在MobileNet、ShuffleNet中都使用了

DW卷积的参数量是:

K*K*C_in (此时C_in = n)
K是卷积核大小,C_in是input的channel数,DW卷积中,卷积核个数与input的channel数相同

PW卷积的参数量是:

1*1*C_in*n 
PW卷积的卷积核为1*1大小,C_in是input的channel数,n是卷积核个数(output的channel数)

在这里插入图片描述

总结

  • 分组卷积的参数量是常规卷积(Convolution)参数量的1/g, 其中g是分组数
  • DW卷积的参数量是常规卷积(Convolution)参数量的1/n, 其中n是卷积核个数
  • 当分组卷积中的g=C_in, n=C_in时,DW==分组卷积(将每个channel自己作为一组)

Residuals与Inverted Residuals

在这里插入图片描述

bottleneck与linearbottleneck

Bottleneck指的是瓶颈层,Bottleneck结构其实就是为了降低参数量,Bottleneck 三步走是先 PW 对数据进行降维,再进行常规卷积核的卷积,最后 PW 对数据进行升维(类似于沙漏型)。

这里侧重的是网络中的降(升)维->卷积->升(降)维结构,而不关注shortcut

Linear Bottlececk: 针对MobileNet v2中的Inverted residual block结构的最后一个1*1 卷积层使用了线性激活函数,而不是relu激活函数

  • 0
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值