dropblock 实现

 

DropBlock: A regularization method for convolutional networks

DropBlock 由原本的Dropout的随机丢弃点改变为丢弃整个块,如上图所述。该论文认为随机丢弃的像素点(其实是特征图的一个点)可能会由他附近的点的关联信息所表示出来,这样就起不到原本想要的正则效果,因此直接丢弃一个块。

 

方法如下

 

输入大小为4维向量,否则会出错.

丢弃的点为随机选取。

#!/usr/bin/env python
# -*- coding:utf8 -*-
import torch
import torch.nn.functional as F
from torch import nn


class Drop(nn.Module):
    def __init__(self, drop_prob=0.1, block_size=7):
        super(Drop, self).__init__()

        self.drop_prob = drop_prob
        self.block_size = block_size

    def forward(self, x):
        if self.drop_prob == 0:
            return x
        # 设置gamma,比gamma小的设置为1,大于gamma的为0,对应第五步
        # 这样计算可以得到丢弃的比率的随机点个数
        gamma = self.drop_prob / (self.block_size**2)
        mask = (torch.rand(x.shape[0], *x.shape[2:]) < gamma).float()

        mask = mask.to(x.device)

        # compute block mask
        block_mask = self._compute_block_mask(mask)
        # apply block mask,为算法图的第六步
        out = x * block_mask[:, None, :, :]
        # Normalize the features,对应第七步
        out = out * block_mask.numel() / block_mask.sum()
        return out

    def _compute_block_mask(self, mask):
        # 取最大值,这样就能够取出一个block的块大小的1作为drop,当然需要翻转大小,使得1为0,0为1
        block_mask = F.max_pool2d(input=mask[:, None, :, :],
                                  kernel_size=(self.block_size,
                                               self.block_size),
                                  stride=(1, 1),
                                  padding=self.block_size // 2)

        if self.block_size % 2 == 0:
            # 如果block大小是2的话,会边界会多出1,要去掉才能输出与原图一样大小.
            block_mask = block_mask[:, :, :-1, :-1]
        block_mask = 1 - block_mask.squeeze(1)

        return block_mask

 

 

  • 0
    点赞
  • 10
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是使用PyTorch实现DropBlock的代码示例: ```python import torch import torch.nn as nn import torch.nn.functional as F class DropBlock(nn.Module): def __init__(self, p=0.5, block_size=7): super(DropBlock, self).__init__() self.p = p self.block_size = block_size def forward(self, x): if not self.training or self.p == 0: return x gamma = self._compute_gamma(x) mask = (torch.rand_like(x) < gamma).float() block_mask = self._compute_block_mask(mask) out = x * block_mask[:, :, :x.size(2), :x.size(3)] return out / (1 - gamma) def _compute_block_mask(self, mask): left_pad = self.block_size // 2 right_pad = self.block_size - left_pad - 1 block_mask = F.max_pool2d( F.pad(mask, (left_pad, right_pad, left_pad, right_pad)), kernel_size=(self.block_size, self.block_size), stride=1, padding=0, ) if self.block_size % 2 == 0: block_mask = block_mask[:, :, :-1, :-1] return 1 - block_mask def _compute_gamma(self, x): feat_size = x.size(2) return ( self.p * feat_size ** 2 / ((feat_size - self.block_size + 1) ** 2) * (feat_size ** 2 / (feat_size ** 2 - self.block_size ** 2)) ) def __repr__(self): return f"DropBlock(p={self.p}, block_size={self.block_size})" ``` 在这个实现中,我们使用了PyTorch的nn.Module类,定义了DropBlock类,并实现DropBlock的前向传播和反向传播函数。 在前向传播函数中,我们首先判断模型是否处于训练模式,并检查DropBlock的超参数p是否为0,如果是,则直接返回特征图x。否则,我们根据概率p计算出每个像素被保留的概率gamma,并根据gamma生成一个掩码mask。然后,我们根据掩码mask计算出一个块掩码block_mask,并将该块内的像素值归零。最后,我们将处理后的特征图out除以(1-gamma)来保持特征图的数值范围不变。 在反向传播函数中,我们直接将梯度传递下去,不需要进行任何处理。 最后,我们还定义了DropBlock类的__repr__方法,用于打印DropBlock的超参数。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值