20211001:Trick篇-MixConv

论文:MixConv: Mixed Depthwise Convolutional Kernels

论文: https://arxiv.org/abs/1907.09595

代码:https://github.com/linksense/MixNet-PyTorch[非官方]

 代码:https://github.com/leaderj1001/Mixed-Depthwise-Convolutional-Kernels [非官方]

Trick:
谷歌出品,轻量化网络,值得学习借鉴

要点记录: 

1:开门见山:平常只关注depth-wise有效,却忽略了depth-wise的kernel size问题

-----------------------------------------------------------------------------------------------------------------

 要点记录: 

1:很显然,一定程度上,增加kernel size是可以提升acc的,但flops也随之增加。继续增大,精度反而下降。

-----------------------------------------------------------------------------------------------------------------

要点记录: 

1:large kernel size具有更多参数,会显著增加模型size。

2:极端情况下,kernel size = input resolution时,ConvNet就变成了一个fully-connected network.

3:即需要large kernel size 来捕获高分辨率patterns,也需要small kernel size来捕获第分辨率patterns。这样的可以均衡精度和效率。

----------------------------------------------------------------------------------------------------------------- 

要点记录: 

1:上图就是作者提出的MixConv,和Inception的思想很像。对channel分组,分别使用不同大小的卷积核,使得在同一层捕获不同分辨率的patterns.

-----------------------------------------------------------------------------------------------------------------  

要点记录: 

1:Group Size:通过实验发现g=4就很好了。通过NAS发现1-5的变化组合效果更好

 -----------------------------------------------------------------------------------------------------------------  

要点记录: 

1:Kernel Size per Group:从3x3开始,逐步加2。即3x3, 5x5, 7x7...

 -----------------------------------------------------------------------------------------------------------------  

要点记录: 

1:Channel Size Per Group:均分就ok。指数划分,造成large kernel size的数目偏少,学习能力下降。

 -----------------------------------------------------------------------------------------------------------------  

 要点记录: 

1:Dilated Convolution:大卷积核使用孔洞卷积,容易丢失局部细节,造成精度下降

 -----------------------------------------------------------------------------------------------------------------   

要点记录: 

1:从图表上看,效果确实不错,后面在活体任务上验证一下效果

 -----------------------------------------------------------------------------------------------------------------    

 

要点记录: 

1:网络浅层使用小卷积核来节省计算量;网络深层使用大卷积核来提升精度

 -----------------------------------------------------------------------------------------------------------------    

 要点记录: 

1:从这个图上看,确实值的一试。等我验证了,回来补坑。

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

微风❤水墨

你的鼓励是我最大的动力!

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值