arxiv上一篇新文章,讲如何在卷积层进行dropout来防止网络过拟合。
原来的dropout方法多是作用在全连接层上,在卷积层应用dropout方法意义不大。文章认为是因为每个featuremap的位置都有一个感受野范围,仅仅对单个像素位置进行dropout并不能降低featuremap学习的特征范围,也就是说网络仍可以通过该位置的相邻位置元素去学习对应的语义信息,也就不会促使网络去学习更加鲁邦的特征。
既然单独的对每个位置进行dropout并不能提高网络的泛化能力,那么很自然的,如果我们按照一块一块的去dropout,就自然可以促使网络去学习更加鲁邦的特征。思路很简单,就是在featuremap上去一块一块的找,进行归零操作,类似于dropout,叫做dropblock。
上图就是论文整体思想介绍。dropblock有三个比较重要的参数,一个是block_size,用来控制进行归零的block大小;一个是 γ \gamma