续接上文,关于深度可分离卷积与传统卷积的一点思考

关于深度可分离卷积(DSC)与传统卷积间差别的一点点思考,望各位大佬指正。

DSC是将Conv对spatial(receptive-field-wise)和semantic(channel-wise)的同时学习给一分为二了。

在分开的这两个阶段中,Stage 1. depthwise conv用通道为1的多个“薄”卷积核仅学习各个input通道上的空间特征;Stage 2. pointwise conv,也即1 *1 conv或者pixelwise conv,用多个这样的“厚”且“尖”的卷积核逐点进行channel manipulation,即由input channel数向output channel数的转化。 

相比之下,DSC之所以可以降低params,是因为回避了(k * k) *( M * N)这个大连乘。前一个括号中是spatial-wise,后一个括号中是semantic-wise operations。要知道,M * N在一个很深的网络中将会是一个非常的的数字。

DSC所涉及的参数量变为,(k * k * M) + (1 * 1 * M * N),前一个括号是Stage 1 spatial conv,后一个括号是是stage 2 semantic conv。可见,k * k仅连乘了M,而将M * N这个负担交给 1 * 1 来弱化,变k * k 与 M * N之间的乘法为加法。

参数减少,DSC的filter能够capture、learn、extract的feature就变弱了。why?因为传统conv的filter所学得的feature是立体的、即有空间描述,又有语义深度,即,filter本身就是一个k * k * M的tensor,它所表征represent的特征一定更为丰富。反观DSC中,一不存在完整的k * k * M的filter,只有分开的k * k * 1 filter和1 * 1 * M filter。这种割裂、强行分离,破坏了CNN本质的compositional属性。上一层得到的M-channel的feature作为本层的输入,应当被一次性地用一个compact的filter去学习其中蕴含的spatial-semantic特征,而非先spatial后semantic。

仅仅是个人的理解和主观臆断,大佬们见笑了 : D.

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值